Metody SI wykorzystywane są zarówno do zwalczania dezinformacji, jak i do szerzenia jej. Z jednej strony naruszają cienką granicę fotorealizmu w próbie oszukania oka odbiorcy, z drugiej strony blokują automatycznie posty zawierające nieprawdziwe informacje. Zagłębmy się w temat wojny z dezinformacją, który w ostatnich latach staje się ważniejszy i bardziej złożony niż kiedykolwiek.
Wstęp
Remember, a Jedi’s strength flows from the Force. But beware: Anger, fear, aggression – the Dark Side, are they. – Yoda
W ostatnich latach, zwiększająca się ilość informacji w social mediach stała się jednym z największych wyzwań dla ludzkiej zdolności do odróżnienia faktów od dezinformacji. Młode pokolenia, choć lepiej przystosowane do sprawdzania rzetelności informacji, stoją na przegranej pozycji w obliczu ogromu błędnych i celowo mylących wiadomości. Szczególnie niebezpieczne są kampanie dezinformacyjne prowadzone przez osoby lub grupy, które chcą wpłynąć na opinię publiczną w sposób nieuczciwy i manipulacyjny. Najmocniejszym i najbardziej aktualnym przykładem może być dezinformacyjna kampania prorosyjska trwająca w związku z barbarzyńsko rozpoczętą przez rosję wojną w Ukrainie. W tym, jak i wielu innych kontekstach sztuczna inteligencja może stanowić zarówno narzędzie w walce z tą dezinformacją, jak i niestety narzędzie służące do jej generowania i rozpowszechniania. W niniejszym artykule skupimy się na wpływie sztucznej inteligencji na proces powstawania i rozprzestrzeniania się dezinformacji w social mediach oraz na narzędziach wykorzystywanych do jej wykrywania i zwalczania.
Zacznijmy od zaznaczenia, że sama sztuczna inteligencja nie jest powodem istnienia dezinformacji. Już przed jej pojawieniem, tak jak i nadal teraz, zmagaliśmy się z wieloma ludzkimi działaniami, które miały na celu manipulować opinią publiczną, wywoływać kontrowersje, podważać zaufanie wobec pewnych grup, bądź instytucji i wiele innych. Dezinformacja jest i była szerzona za pomocą fałszywych kont, trollingu, botów, czy też po prostu manipulacji sposobem przedstawiania informacji. Niezależnie od motywacji, borykaliśmy się z brakiem odpowiednich narzędzi technologicznych do wykrywania dezinformacji, który sprawiał, że była ona trudna do zwalczania i mogła się szerzyć szeroko w social mediach, wpływając na opinie i decyzje ludzi.
Potrzebujemy SI do walki z dezinformacją
Destroy the Sith, we must. – Yoda
Wraz z rozwojem, sztuczna inteligencja stała się potężnym narzędziem w walce szeroko pojętą dezinformacją. Dzięki technologiom opartym na uczeniu maszynowym i analizie danych, istnieją dzisiaj narzędzia, które pozwalają na wykrywanie, monitorowanie i usuwanie fałszywych treści w social mediach. Jednym z najważniejszych narzędzi stosowanych w walce z dezinformacją jest tzw. “fact-checking”, czyli weryfikacja faktów. SI może pomóc w automatycznej weryfikacji faktów w oparciu o bazę danych z rzetelnymi źródłami informacji. Istnieją już aplikacje, które korzystają z tego typu algorytmów do weryfikowania wiadomości i oznaczania ich jako prawdziwe lub fałszywe. Dzięki temu, użytkownicy social mediów mogą mieć pewność, że przeczytana przez nich treść jest rzetelna i oparta na faktach. Innym narzędziem wykorzystującym SI jest automatyczne wykrywanie trolli, botów i innych fałszywych kont. Algorytmy uczenia maszynowego mogą na przykład analizować interakcje pomiędzy użytkownikami w social mediach, a następnie wykrywać wzorce zachowań charakterystyczne dla botów lub trolli. Dzięki temu, platformy społecznościowe mogą szybko i skutecznie usuwać takie konta oraz zawartość, którą one publikują.
Dodatkowo, SI może pomóc w ochronie użytkowników, poprzez automatyczne wykrywanie i usuwanie treści, które naruszają politykę prywatności, ale także zasady społeczności konkretnych portali, cenzurujących choćby nagość, czy treści brutalne. W ten właśnie sposób, największe portale społecznościowe chronią swoich użytkowników przed treściami, które do tej pory musiały być ręcznie weryfikowane po zgłoszeniach innych użytkowników.
Sztuczna inteligencja jako narzędzie zła
You were supposed to destroy the Sith, not join them. You were supposed to bring balance to the force, not leave it in darkness. – Obi-Wan Kenobi
Niestety, choć SI może być używana do walki z dezinformacją, to jednak istnieją również przypadki, gdzie jest wykorzystywana do szerzenia fałszywych informacji, co stanowi nowe poważne wyzwanie dla społeczeństwa, mediów i władz.
Jednym z najpowszechniejszych sposobów wykorzystania SI do dezinformacji jest tzw. “deepfake”. Deepfake to technologia, która używa algorytmów SI do tworzenia fałszywych treści wizualnych, takich jak filmy lub zdjęcia, w których twarze osób są zastępowane innymi twarzami. Dzięki zaawansowanym algorytmom, deepfake staje się coraz bardziej realistyczny, co czyni go trudnym do wykrycia. Deepfake jest wykorzystywany do różnych celów, od zabawy po celowe manipulowanie opinią publiczną. Może być wykorzystany do tworzenia fałszywych wypowiedzi polityków lub do stworzenia fałszywych nagrań w celu szantażowania lub szkodzenia ludziom. Jednym z najbardziej kontrowersyjnych zastosowań deepfake jest tworzenie fałszywych pornograficznych filmów z udziałem osoby, która nie brała udziału w tym filmie. W takim przypadku deepfake może wywoływać poważne skutki dla ofiar, w tym szkodzenie ich reputacji i życiu prywatnemu. Jest to potężne narzędzie umożliwiające szantażowanie prawie każdej osoby publicznej.
Kolejnym zastosowaniem SI w szerzeniu dezinformacji są tzw. “chatboty”. Są to programy komputerowe, które naśladują rozmowę z ludźmi, często udając prawdziwych użytkowników. Chatboty są wykorzystywane do szerzenia fałszywych informacji na platformach społecznościowych, gdzie mogą prowadzić dyskusje, komentować lub udostępniać treści związane z dezinformacją. Dzięki SI, chatboty stają się coraz bardziej inteligentne, co czyni je trudniejszymi do wykrycia jako sztuczne. Może to prowadzić do szerzenia fałszywych informacji, manipulowania opinią publiczną i tworzenia wrażenia fałszywej akceptacji lub dezaprobaty wobec określonych treści lub poglądów. Dobry przykładem będą, może nie do końca związane z social mediami, lecz ikoniczne już boty telefoniczne, dzwoniące między innymi z propozycją założenia paneli fotowoltaicznych. Codzienna obserwacja jak wielu ludzi wścieka się na dzwoniących i próbuje z nimi dyskutować może utwierdzać nas w przekonaniu, że chatboty nie są już tak łatwe do zdemaskowania jak kiedyś, szczególnie dla osób nieobeznanych w temacie.
Innym przykładem wykorzystania SI do dezinformacji są generatory tekstu. Są to programy komputerowe, które na podstawie wcześniej wygenerowanych wzorców, mogą tworzyć fałszywe treści w sposób automatyczny. Dzięki temu, dezinformacja może być tworzona masowo, w krótkim czasie i z minimalnym udziałem ludzi. Generatory tekstu mogą tworzyć fałszywe artykuły, wpisy na blogach, komentarze czy tweety, co może prowadzić do szerzenia dezinformacji w sposób niezauważonym przez użytkowników. Takie fałszywe treści mogą być wykorzystywane w różnych celach od wprowadzania szumu informacyjnego, do kreowania opinii publicznej i szerzeni nienawiści.
Pojawia się też problem wykorzystania do złych celów tych samych narzędzi, które pierwotnie miały chronić użytkowników przed dezinformacją. Weryfikacja faktów, czy cenzurowanie zdjęć może być wykorzystywane na bezprecedensowo szeroką skalę w celu wprowadzenia cenzury i propagandy w krajach totalitarnych. Bardzo głośnym przykładem były masowo znikające z prywatnych telefonów zdjęcia z protestów w Chinach. W tak skrajnym przypadku jest to zachowanie zauważalne, lecz nie możemy mieć pewności, że wykorzystywane przez nas kanały komunikacji i/lub portale społecznościowe nie w niewielkim stopniu zmanipulowane. Choć brzmi to jak kolejna teoria spiskowa, to takie i inne oskarżenia o manipulację pojawiają się nieustannie. W ostatnim miesiącu zrobiło się choćby głośno o blokowaniu przez Twittera w Indiach krytyków obecnego premiera państwa – Narendra Modi. Więcej na ten temat w artykule The Guardian.
Oprócz powyższych przykładów, istnieje wiele innych sposobów wykorzystania SI do dezinformacji, w tym np. algorytmy służące do manipulowania wynikami wyszukiwania, symulowanie aktywności kont na portalach społecznościowych lub tworzenie fałszywych profili użytkowników. Wszystkie te metody stanowią poważne wyzwanie dla demokracji, wolności słowa i prawdziwego dziennikarstwa.
Podsumowanie
Rebellions are build on hope. – Jyn
Podsumowując, sztuczna inteligencja może mieć zarówno pozytywny, jak i negatywny wpływ na dezinformację w mediach i w szczególności mediach społecznościowych. W obliczu ostatnich wydarzeń, ważniejsze niż kiedykolwiek wydaje się by pamiętać o konieczności krytycznego podejścia do informacji znajdowanych w Internecie i edukacji innych w tym zakresie. Niestety, sama edukacja może nie wystarczyć, gdyż skala problemu wzrosła niewyobrażalnie i jedynym sposobem, by podjąć równą walką z dezinformacją tworzoną i szerzoną z pomocą sztucznej inteligencji, jest zaprzęgnięcie jej samej do pracy.
Literatura
Ramalingaiah, A & Hussaini, S & Chaudhari, Shilpa. (2021). Twitter bot detection using supervised machine learning. Journal of Physics: Conference Series. 1950. 012006. 10.1088/1742-6596/1950/1/012006.
https://www.cbsnews.com/news/deepfake-porn-ai-technology/
https://www.theguardian.com/world/2023/apr/05/twitter-accused-of-censorship-in-india-as-it-blocks-modi-critics-elon-musk
(2021) Deepfake: a social construction of technology perspective, Current Issues in Tourism, 24:13, 1798-1802, DOI: 10.1080/13683500.2020.1738357
Feyza Altunbey Ozbay, Bilal Alatas (2020) Fake news detection within online social media using supervised artificial intelligence algorithms, 540, 123174, ISSN 0378-4371
Školkay, A., & Filin, J. (2019). A Comparison of Fake News Detecting and Fact-Checking AI Based Solutions. Studia Medioznawcze, 20(4), 365–383.
https://www.nytimes.com/2023/02/07/technology/artificial-intelligence-training-deepfake.html
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…