Home » 2022 » Social media a prawda – jak wykorzystywane techniki SI i przetwarzania danych służą rozpowszechnianiu prawdy bądź jej manipulacji

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 61
  • 517
  • 25 109
  • 7 347
  • 333

Social media a prawda – jak wykorzystywane techniki SI i przetwarzania danych służą rozpowszechnianiu prawdy bądź jej manipulacji

Spread the love

Information is Power. Think For Yourself ”. Żyjemy obecnie w epoce informacji, w której wszelka wiedza może być przydatna do osiągania własnych celów. Ale jak w tym natłoku danych odróżnić co jest prawdą, a co kłamstwem? Z pomocą przychodzi nam sztuczna inteligencja.

„Information is Power. Think For Yourself. CAUTION: proper use of the brain is not endorsed by federal governments nor huge corporations involved in serious financial profit from a brainwashed and enslaved population. Mild discomfort may occur as confusing independent thought challenges popular views of the world.”

Timothy Leary

Co to prawda i kto o tym decyduje?

Arystoteles zdefiniował prawdę w taki sposób:

  1. «Powiedzieć, że istnieje, o czymś, czego nie ma, jest fałszem. Powiedzieć o tym, co jest, że jest, a o tym, czego nie ma, że go nie ma, jest prawdą.»

Przedstawia on doskonałą prawdę odzwierciedlającą stan faktyczny. Taką prawdę bardzo ciężko dowieść, jeśli w ogóle się da

Søren Kierkegaard zaproponował że prawda jest subiektywizmem

  1. «Pogląd, według którego przedmiot poznania nie istnieje obiektywnie, lecz jedynie subiektywnie, tj. w zależności od sposobów i warunków poznawania właściwych podmiotowi poznającemu.»

W tej definicji osobista ocena decyduje o tym czy coś jest prawdziwe czy nie. Nie ma żadnego ministerstwa prawdy, ani innego autorytetu definiującego co jest prawdziwe a co nie:

Ministerstwo Prawdy - Literatura faktu - Czarnaowca
Rysunek 1. Ministerstwo prawdy Źródło: https://www.czarnaowca.pl/kategorie/literatura-faktu/ministerstwo-prawdy,p2072800300

Postprawda i social media:

W kontekście social mediów, pojęcie prawdy nawet takiej subiektywnej może okazać się nie wystarczające. Istnieje za to takie bardziej dopasowane do kontekstu postprawda.

Kolegium redakcyjne Słownika Oksfordzkiego opisuje postprawdę w taki sposób:

  1. «odnosi się do lub opisuje sytuację, w której obiektywne fakty mają mniejsze znaczenie w kształtowaniu opinii publicznej niż odwołania do emocji i osobistych przekonań”

Ale co do tego mają social media?

Definiują one przestrzeń i udostępniają narzędzia by taką postprawdę tworzyć i monitorować jej skutki. Mając takie narzędzia można już swobodnie manipulować odbiorcą.

Czym jest manipulacja?

Gdyby zapytać na ulicy losowego przechodnia „Czym jest manipulacja?” prawdopodobnie usłyszelibyśmy coś w rodzaju „manipulacja to akcje mające na celu nakłonienie kogoś do czegoś” (ja akurat zapytałem sąsiadki😊). I właściwie czemu by nie zgodzić się z tą definicją? Słownik Języka Polskiego dostępny publicznie podaje taką jedną z definicji:

  1. «wykorzystywanie jakichś okoliczności, naginanie lub przeinaczanie faktów w celu udowodnienia swoich racji lub wpływania na cudze poglądy i zachowania»

Słownik języka polskiego (ani moja sąsiadka) nie podają czy jest to coś dobrego lub złego, co jak to mówią, „na chłopski rozum” by się zgadzało, bo przecież codziennie w mniejszy lub większy sposób jesteśmy manipulowani, czy to w nieszkodliwy sposób jak np. poprzez odpowiednie ustawienie produktów na półkach sklepowych lub nieco bardziej jak było w przypadku ACTA w 2019 roku. Jednak możemy się zgodzić że manipulacja informacją jest w obecnych czasach pewną formą broni kulturowej, celowanej w użytkowników Internetu.

 

“Większy” wróg?

Sytuacja ma się podobnie w Internecie, gdzie obecnie spędzamy większość swojego wolnego (a nawet i takiego, w którym powinniśmy się uczyć lub pracować) czasu. Manipuluje się nami na wiele różnych sposobów. Jednakże w tym przypadku prawdopodobnie łatwiej będzie czytelnikowi wymienić negatywne skutki takich działań, bo przecież odpowiednie ułożenie reklamy na stronie internetowej nie ma takiego wpływu jak… TROLLE!?

Troll
Rysunek 1. Skalny troll. Źródło: https://sorceleur.gamepedia.com/Troll_de_pierre

Trolle zadomowiły się w Internecie jak Bart w piwnicy Dijkstry już wiele lat temu, ba! stały się one nawet w pewien sposób zawodem, na którym można było zarobić (jeżeli robisz to za darmo, to proszę przestań, wiele tracisz!). Oczywiście, poza trollami można jeszcze wymieniać inne, mniej zabawne manipulacje jak np. prowokowanie dyskusji, kłótni lub mowa nienawiści w kierunku wybranych grup społecznych. I choć siedzimy już w Internecie bardzo długo, to równie długo [i powolnie] uczymy się odróżniać prawdziwe informacje od tych fałszywych.

Wujkowie, ciocie i inne kreatury

Podczas poszukiwania informacji w Internecie często korzystamy z pomocy dobrze wszystkim znanego wujka oraz czasami cioci. Po drodze trafiamy między ćwierkające ptaszki i inne książki wypełnione twarzami. Te ostatnie są szczególnie przydatne w przypadku informacji związanych z „gorącymi” tematami, co do których chcielibyśmy mieć względnie szybkie informacje.

Obecnie przykładowymi gorącymi tematami są np. kryptowaluty oraz wojna na Ukrainie. W obu przypadkach można znaleźć mnóstwo informacji zarówno prawdziwych jak i nieprawdziwych. Jest jeszcze wiele innych popularnych tematów, jednakże te dwa obecnie królują, szczególnie, że w pewien sposób jeden wpływa na drugi.

Będąc jeszcze w kontekście wujków, warto dodać, że manipulacją nie zajmują się wyłącznie osoby (lub firmy) o złych zamiarach. Takie działania prowadzą również duże firmy, takie jak Google czy Facebook chociaż nie w tak szkodliwy sposób jak ich „antagoniści”. Facebook przykładowo manipulował polubieniami postów, a Google wykorzystuje w ciekawy sposób crowdsourcing do zbierania danych.

Przydatne narzędzia i wykorzystanie

Ale żeby trafić do ludzi trzeba najpierw coś stworzyć, prawda? A jak chcemy trafić do bardzo wielu ludzi to najlepiej stworzyć bardzo dużo contentu? Tu z pomocą przychodzą sztuczna inteligencja i metody przetwarzania danych.

Mówiąc najprościej, sztuczna inteligencja (artificial intelligence, AI) to systemy lub maszyny, które naśladują ludzką inteligencję w celu wykonywania zadań i mogą sukcesywnie usprawniać swoje działanie w oparciu o zbierane informacje.

Przetwarzanie danych (ang. data processing) – przekształcanie treści i postaci danych wejściowych (ang. input) metodą wykonywania systematycznych operacji w celu uzyskania wyników (ang. output) w postaci z góry określonej.

Oba te pojęcia są bardzo szerokie i tak naprawdę trudno jest jednoznacznie i konkretnie podać wszystkie ich zadania. Pozwalają one na wykonanie i przyspieszenie wielu działań, z których część nie jest już nawet możliwa do zrobienia przez ludzi, ale poza pożytecznym ich wykorzystaniem sprawiają, że łatwiej nami manipulować. Przykładowo bardzo popularne w ostatnich latach stały się techniki przetwarzania języka naturalnego, które pomagają wykrywać ale i tworzyć fałszywe informacje i opinie na podstawie wcześniej dostarczonych przykładowych danych.

Ale kto co?

Do manipulacji prawdą na social media można podejść na dwa sposoby:

Od strony pracowników i właścicieli

To właśnie właściciele i pracownicy widzą jak działa jakaś platforma. W odróżnieniu od użytkowników oni mogą modyfikować system i to najczęściej w sposób nieweryfikowalny z zewnątrz.

Takich edycji nie musi to dokonywać doświadczony i zaufany pracownik. Może to być ktoś nowy z niewielką ilością uprawnień, ale ze zdolnościami hakerskimi.

Ale przecież właściciele social mediów nie będą robić nic złego, prawda? Prawda!?

Promowanie własnych usług przez Google’a

Co prawda Google to nie social media, ale korzysta z silników rekomendacji, które występują na każdej platformie social media. Więc posłuży jako analogia.

Robert Epstein opisuje w artykule How Google could rig the 2016 election, odwołując się do wcześniej przeprowadzonych badań naukowych. Jak duży wpływ na wybory ma pozycjonowanie wyników w przeglądarce.

Wskazał, że samo pozycjonowanie tylko podczas jednej sesji wyszukiwanie informacji miało wpływ miedzy 20% do aż 60% dla konkretnych grup wiekowych.

Nie powinno to być nic zaskakującego patrząc na wyrok sądu najwyższego. Firma Google została ukarana grzywną w wysokości €2 424 495 000 w związku z promowaniem własnych platform w wyszukiwaniach.

Niezależnie od tego Google dzielił problem radykalizacji analogicznie do tego opisanego w następnym akapicie.

Radykalizowanie poglądów przez Youtube’a

Youtube w związku, że przed 2019 rokiem maksymalizował metrykę czasu spędzonego na oglądaniu radykalizował poglądy swoich użytkowników.

Co szerzej opisane jest w tym artykule.

Albo wyjaśnione na filmie poniżej:

W związku z kontrowersjami związanymi z algorytmem Youtube’a powstała organizacja zajmująca się zwiększeniem zrozumienia jakim zagrożeniem mogą być tajne algorytmy rekomendacji:

https://www.algotransparency.org/our-manifesto.html

Facebook(Meta) i Cambridge Analytica

W związku z wyciekami z 2020 roku związanymi wyszło na jaw, że pracownicy Facebooka współpracowali z Cambridge Analytica.

Facebook data misuse and voter manipulation back in the frame with latest Cambridge Analytica leaks

 

Twitter ukryta polityka co można a czego nie można publikować

Twitter nie publikuje precyzyjnych wytycznych odnośnie tego kiedy posty są kasowane. Dodatkowo użytkownik nie jest w stanie w żaden sposób mieć wgląd w taką sytuacje.

https://help.twitter.com/en/rules-and-policies/manipulated-media

Działania przeciwko szerzeniu fake newsów

Oczywiście wszystkie same te organizacje aktywnie zwalczają fake newsy, ale ich działania nadal określane są jako niewystarczające.

Ale to tylko za granicą w Polsce tak nie ma

Jeśli myślisz, że powyższe problemy w żaden sposób nie są związane z Polską.

To tutaj możesz znaleźć badania Robert Gorwa z Uniwersytetu Oksfordzkiego, który wskazuję, że ilość botów może wynosić nawet 5% i odpowiadać za 33.8% wiadomości.

Od strony użytkowników

Chodzi tu o metody, które jest w stanie zastosować każdy z wystarczającymi zasobami i widzą:

Spam-boty

Spamem nazywa się najczęściej niechciane lub nieistotne wiadomości przesyłane przez Internet, zwykle do dużej liczby użytkowników, w celach reklamowych, wyłudzania informacji, rozprzestrzeniania złośliwego oprogramowania itp.

Rysunek 2. Mielonka SPAM. Źródło: https://www.flickr.com/photos/jeepersmedia/14010924432

Wszyscy znamy go bardzo dobrze, bo otrzymujemy  go regularnie na swoje skrzynki mailowe, prawda? Ale spam to nie tylko mięso i wiadomości email. To także śmieciowe komentarze pod postami na  Facebooku, w wiadomościach oraz (szczególnie współczuje tym opartym o WordPressa) na blogach internetowych. Na pierwszy rzut oka mogą się wydawać po prostu uciążliwe, ale ostatecznie często powodują inne skutki jak spadek wyników SEO strony lub zablokowanie usługi. Walczyć z nimi muszą wszyscy – zarówno giganci tacy jak np. Twitter jak i my, prowadzący własne blogi 😉.

Kupowanie lajków, komentarzy i subów

Niech pierwszy rzuci kamień SEOwiec, który nigdy nie pomyślał o kupowaniu followersów na Instagramie! No może trochę przesadzadziłem, bo nie każdy o tym myśli, ale na pewno pamiętają o tym szczególnie nowi w branży SEO oraz ci, którzy dostali zupełnie nową markę do wypromowania. Kupowanie lajków, komentarzy itp. jest bardzo szybkim sposobem na sztuczne zwiększenie zainteresowania ofertą danej firmy na popularnych social mediach, a przy okazji całkiem tanim – niekoniecznie trwałym i bezpiecznym. Dawniej kupowało się właściwie same polubienia i subskrypcje, ale w związku z bardzo szybkim rozwojem przetwarzania języka naturalnego obecnie bardzo łatwo również o całkiem wiarygodne opinie i komentarze pod postami.

Amazing toy material is soft and sturdy. I bought this for my 4 year old son as a gift for Christmas. He loves it.My daughter got this for her 4th birthday and loves it. It’s sturdy.Very well made

Manipulacja danymi

Na Twitterze można znaleźć ogromną ilość wpisów dotyczących kryptowalut. Samych tweetów dotyczących Bitcoina jest od kilkudziesięciu do kilkuset tysięcy dziennie. Oczywiście wiele z nich to wpisy przygotowane przez spam-boty wspomniane wcześniej, ale wiele z nich zawiera również obrazy, wykresy, tabele itp., które często sugerują pewne duże i korzystne możliwości jeżeli tylko „jeszcze dzisiaj kupimy Squid Game coina po dobrej cenie”.

Rysunek 3. Cena waluty Squid Game. Źródło: CoinMarketCap, https://cointelegraph.com/news/twitter-flags-squid-game-token-accounts-as-price-crashes

Takie próby oszustwa nie dotyczą wyłącznie kryptowalut. Do jednego worka można wrzucić właściwie wszystko co da się kupić jak np. elektronika, samochody, akcje na giełdzie.

Polityka

Pisząc poprzedni akapit przypomniałem sobie, że przecież niedawno ktoś zrobił deepfake’a na obecnym prezydencie Ukrainy Volodymyr’e Zelensky’m. Filmik z nagraniem dołącza poniżej:

To obecnie chyba najświeższy i najlepszy przykład jak można wykorzystać metody sztucznej inteligencji do manipulacji informacji. Rosjanie próbowali w ten sposób oszukać Ukraińców i wmówić im, że prezydent ogłosił kapitulację. Na szczęście sam prezydent oraz internauci szybko zareagowali na tą przedziwną sytuację i nie spowodowała ona żadnych problemów. Więcej o technologii deepfake napisały moje koleżanki i koledzy tutaj i tutaj.

Lepszy marketing

Sztuczna Inteligencja przyczynia się również do lepszych wyników sprzedażowych. Dzięki badaniom dowiadujemy się, że wiele dużych firm implementuje wśród swoich akcji metody AI, które pozwalają uzyskać przewagę nad konkurencją. Wciąż rosnący rynek w sieci sprawia, że dostępnych jest mnóstwo danych dotyczących zachowań użytkowników, na podstawie których marketingowcy mogą opierać swoje działania. Najlepiej sprawują się działania dedykowane pod konkretne usługi, dlatego też w tym przypadku nie można zostawić opracowania i przygotowania sztucznej inteligencji samej sobie.

Inne przypadki

Istnieje wiele innych pozytywnych zastosowań eksploracji danych i wykorzystania sztucznej inteligencji do pomocy jednakże nie jest o nich tak głośno jak o skandalach związanych z oszustwami. Świetnymi przykładami pozytywnego wykorzystania wyżej wspomnianych metod są np. wykrywanie nielegalnego handlu oraz oznaczania zagrożonych gatunków na zdjęciach w postach lub śledzenie w czasie rzeczywistym obszarów i skutków powodzi z wykorzystaniem social mediów.

Liczy się czas

W wielu dziedzinach normalnego życia czas jest czynnikiem który wyznacza lub przynajmniej nieco ukierunkowuje nasze działania. Tak samo w przypadku manipulacji w social mediach czas jest bardzo ważny. Osobiście wyróżniłbym tutaj 3 jego warianty lub jak kto woli okresy (dla wybrednych będą 4):

  1. Duży i ogólny przedział czasowy – możemy wyodrębnić konkretne przedziały czasowe, przyporządkowane do konkretnych wydarzeń z nimi związanych. Najlepszym przykładem są okresy przedwyborcze, publicznie ogłaszane duże kontrakty i zmiany w dużych spółkach lub obecna wojna za wschodnią granicą. Zwykle jest to od kilku dni do kilku miesięcy, w których można zaobserwować zwiększenie ilości pojawiających się informacji na dane tematy.
  2. Czas do opublikowania informacji – to czas, który mija do opublikowania pewnej informacji od jej uzyskania. Czasami są to sekundy, czasami dni. Część informacji jest udostępniana szybko, ponieważ jest ważna albo jest próbą oszustwa (a wtedy przecież warto być szybszym od innych), a czasami wolno lub prawie wcale, bo nie powinna od razu albo w ogóle wychodzić do opinii publicznej (np. obecne informacje o ruchach wojsk za wschodnią granicą).
  3. Czas życia informacji – to czas po jakim dana informacja się przedawni, lub w przypadku wiadomości będących oszustwami, czas po jakim zostanie ona usunięta z serwisu.
  4. Wszystko inne – to taki czas dla tych, którzy nie mają co robić w przerwach między aferami 😊

Dlaczego to robimy?

„Bo to działa” – tak mógłbym podsumować cały ten akapit, ale nieco rozwinę tą myśl. Chodzi o to, że takie manipulacje działają zarówno pozytywnie jak i negatywnie na nasze aktywności w sieci. Oczywiście my, jako rozważni i doświadczeni użytkownicy Internetu, nigdy nie dalibyśmy się żadnemu scamowi, ale tak naprawdę oszustwa mają miejsce cały czas. Z raportu CERT Polska wynika, że w samym 2019 roku (tylko w Polsce) zostało zgłoszone prawie 6500 oszustw internetowych, a ta liczba nie uwzględnia informacji przekazanych do innych placówek lub co gorsza niezgłoszonych incydentów. Fundacja Rozwoju Rynku Finansowego podaje, że co 5 Polak skorzystałby z fałszywej oferty i dałby się nabrać. Wychodząc poza teren naszego kraju skala takich incydentów jest ogromna i przybiera różnorakie formy. Na szczęście znajdują się śmiałkowie którzy próbują z tym walczyć, jak pokazuje poniższe nagranie:

Zastanów się czy ostatnio nie kupowałeś czegoś przez Internet i nie sugerowałeś się dziesiątkami pozytywnych opinii na temat jakiegoś produktu?

Jest jeszcze drugi powód, który przynajmniej sprawia, że łatwiej jest manipulować prawdą – anonimowość. To pojęcie, które często jest podstawą wszelakich akcji manipulacyjnych w sieci. Metod na bycie anonimowym jest bardzo dużo: od fałszywych kont na portalach społecznościowych, przez korzystanie z Wi-Fi w miejscach publicznych, po stosowanie VPNów i innych podobnych narzędzi.

Internet zapewnia całkowitą anonimowość, a kiedy znikają społeczne hamulce, ludzie posuwają się zbyt daleko. Poczucie anonimowości wyzwala to, co w nas najgorsze.

Aga Lesiewicz

Co robić i jak żyć?

Przed każdym zagrożeniem można się bronić, wszystko zależy od tego jak skutecznie to robimy. Pierwszym rozwiązaniem jest tak naprawdę bycie rozważnym użytkownikiem Internetu i stosowanie zasady „nie ufaj nikomu”. Takie podejście wymaga od użyszkodnika ciągłej uwagi i weryfikacji wielu informacji jednocześnie, co może być dość uciążliwe w dłuższych okresach czasu, jednakże trzeba się zastanowić co jest dla nas ważniejsze – prawda czy sensacja. Zalecam stosowanie tej reguły przynajmniej wtedy, kiedy szukamy ważnych dla nas informacji oraz gdy nie chcemy przy znajomych wypalić z jakimś zmyślonym newsem 😐.

Drugim rozwiązaniem jest stosowanie narzędzi wspomagających weryfikację. Tak samo jak sztuczna inteligencja pomaga tworzyć szkodliwe lub nieprawdziwe informacje, tak może ona też pomagać je wykrywać. W powyższym filmie Kacper Szurek przedstawia kilka prostych przykładów manipulacji i technik ich weryfikacji. Podobne narzędzia powstają cały czas, jednakże i przy nich trzeba pamiętać o zachowaniu pewnej dozy uwagi.

 

Źródła

Krawerenda-Wajda, K. (2017). Prawda jako subiektywność czy subiektywność prawdy? : problem poznania w filozofii Duńczyka / Katarzyna Krawerenda-Wajda.

Słownik Języka Polskiego PWN, https://sjp.pwn.pl/sjp/subiektywizm;2576457.html

Praca zbiorowa: Mały leksykon postprawdy. Warszawa: Fundacja Wolność i Demokracja, 2018, s. 76. ISBN 978-83-947122-1-1.

Słownik Języka Polskiego PWN, https://sjp.pwn.pl/slowniki/manipulacja.html

E. Wara-Wąsowska, Jak manipulują nami w sklepach, https://bezprawnik.pl/jak-manipuluja-nami-w-sklepach/

Dowody na to, że jesteś codziennie okłamywany, https://www.martapisze.pl/2014/05/cztery-dowody-na-to-ze-jestes.html

Ł. Kotkowski, Facebooka nie da się lubić. Algorytmy manipulowały zasięgami postów, https://spidersweb.pl/2021/10/facebook-manipulacja-reakcje.html

Chou Yu-kai, Five Examples of Gamified Crowdsourcing To Learn From, https://yukaichou.com/gamification-examples/five-examples-of-gamified-crowdsourcing-to-learn-from/

Oracle Polska, Sztuczna Inteligencja, https://www.oracle.com/pl/artificial-intelligence/what-is-ai/

Wikipedia, https://pl.wikipedia.org/wiki/Przetwarzanie_danych

J. Kołtunowicz, Szybcy i wściekli, czyli maszyna do wypluwania fake newsów, https://www.sztucznainteligencja.org.pl/szybcy-wsciekli-maszyna-wypluwania-fake-newsow/

R. Epstein How Google could rig the 2016 election https://www.politico.eu/article/google-2016-election-us-candidates-search/

Epstein, R., & Robertson, R. E. (2015). The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections. Proceedings of the National Academy of Sciences of the United States of America, 112(33), E4512–E4521.

The General Court largely dismisses Google’s action against the decision of the
Commission finding that Google abused its dominant position by favouring its own
comparison shopping service over competing comparison shopping services
https://curia.europa.eu/jcms/upload/docs/application/pdf/2021-11/cp210197en.pdf

https://www.theguardian.com/technology/2016/dec/16/google-autocomplete-rightwing-bias-algorithm-political-propaganda

A. Cojocariu, 5 Common Types of SPAM & How You Can Protect Yourself Against Them, https://cognitiveseo.com/blog/18718/5-common-types-spam-can-protect/

Kamel, Ahmed & Salminen, Joni & Jansen, Jim & Jung, Soon-Gyo. (2022). Creating and detecting fake reviews of online products. Journal of Retailing and Consumer Services. 64. 102771. 10.1016/j.jretconser.2021.102771.

, How a Squid Game Crypto Scam Got Away With Millions, https://www.wired.com/story/squid-game-coin-crypto-scam/

Mishra, Anandvardhan. (2022). Role of Artificial Intelligence in Social Media Marketing. International Journal of Business Analytics and Intelligence.

Di Minin, Enrico & Fink, Christoph & Tenkanen, Henrikki & Hiippala, Tuomo. (2018). Machine learning for tracking illegal wildlife trade on social media. Nature Ecology & Evolution. 2. 10.1038/s41559-018-0466-x.

Wang, Ruo-Qian & Hu, Yingjie & Zhou, Zikai & Yang, Kevin. (2020). Tracking Flooding Phase Transitions and Establishing a Passive Hotline With AI-Enabled Social Media Data. IEEE Access. 8. 1-1. 10.1109/ACCESS.2020.2994187.

NASK, Raport CERT Polska: uwaga na oszustwa w internecie, https://www.nask.pl/pl/aktualnosci/3877,Raport-CERT-Polska-uwaga-na-oszustwa-w-internecie.html

Fundacja Rozwoju Rynku Finansowego, Nie daj się oszukać! Co 5. Polak skorzystałby z fałszywej oferty inwestycyjnej, https://frrf.pl/co-5-polak-skorzystalby-z-falszywej-oferty-inwestycyjnej/

A. Lesiewicz, Zaślepienie

M. Słomski, Postrach influencerek! Adobe About Face wykrywa przeróbki zdjęć i pokazuje oryginały, https://www.instalki.pl/aktualnosci/software/38551-aplikacja-adobe-about-face-wykrywa-przerobki-zdjec-i-pokazuje-ich-oryginaly.html

https://www.wired.com/story/the-toxic-potential-of-youtubes-feedback-loop

https://www.theguardian.com/technology/2020/oct/29/here-are-all-the-steps-social-media-made-to-combat-misinformation-will-it-be-enough
https://blogs.oii.ox.ac.uk/politicalbots/wp-content/uploads/sites/89/2017/06/Comprop-Poland.pdf
https://www.newyorker.com/news/daily-comment/facebook-and-the-age-of-manipulation

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…