Sztuczna Inteligencja obecnie wykorzystywana jest niemal we wszystkich dziedzinach naszego życia. Za sprawą takich filmów jak Social Dilemma coraz więcej ludzi zdaje sobie sprawę, że proponowane mu w internecie treści to nie przypadek, a wynik działania algorytmów Data Science, które analizują jego ruch w sieci. Dokument Netflixa w dużym skrócie przedstawia jak działają algorytmy do wyświetlania treści w taki serwisach jak Facebook, Instagram TikTok czy Twitter i pozostawia nas z przemyśleniem, czy rzeczywiście warto dzielić się wszystkimi informacjami za pośrednictwem tych aplikacji. O wiele większym problem wydaje się być występowanie Fake News, czyli fałszywych informacji, które przez swoją treść czy nagłówkiem, często zachęcają czytelnika do zapoznania się z ich treścią. Do ich gwałtownego wzrostu przyczyniły się rozwój rozwój Deep Learningu, czyli Uczenia Głębokiego. Za sprawą sieci neuronowych opartych między innymi na transformerach czy GAN(Generative adversarial network) powstają teksty jak i obrazy czy wideo, które bardzo trudno rozróżnić o prawdziwych informacji. Jakie to niesie możliwości, konsekwencje? Czy możemy z nimi walczyć wykorzystując Sztuczną Inteligencję?
Generative Adversial Neural Network
Generative Adversial Networks są świetnym narzędziem pozwalającym naukowcom na generowanie wszelkiej maści treści. Mogą być szczególnie pomocne przy pracach polegających na poprawie rozdzielczości zdjęć satelitarnych lub obrazów medycznych. Choć wspomniane przykładny zastosowań GANów wydają się obiecujące dla ludzkości – to z drugiej strony ludzie znaleźli też zastosowanie tych sieci do niecnych czynów. Jako ze nasz artykuł opisuje wytwarzanie fake newsów to łatwo domyślić się ze gany swietnie spiszą się również w tej dyscyplinie.
GANy pozwalają na generowanie fakowych ludzi (najczęściej ich twarzy) na podstawie ogromnego zbioru ludzkich twarzy np celebrytów. Gdy widzimy takie wyniki wydaje nam się ze to dobrze znana nam osoba. Warto rozważyć scenariusz gdy AI wygeneruje nam obraz bliskiej nam osoby która cierpi, robi cos złego lub całkowicie wypacza obraz w jakim postrzegaliśmy naszego bliskiego.
Takie twory mogą być bardzo szkodliwe i destrukcyjne dla naszego zdrowia psychicznego. Nie trudno wyobrazic sobie sytuacje gdy ktoś uwierzy ze ktoś skrzywdził jego najbliższych i będzie próbować za wszelka cenę się zemścić.
Kolejnym szkodliwym dla społeczeństwa przykładem może być generowanie fałszywych raportów na temat jakiegoś zjawiska. Ostatnio bardzo często pojawiały się raporty na temat obecnej sytuacji epidemiologicznej w Polsce jak i na świecie. Wyobraźmy sobie sytuacje gdy ktoś z grona ekstremistycznych antyszczepionkowców przy pomocy AI generuje wyniki które fałszywe raporty lub wykresy na temat obecnej sytuacji COVID i drastycznie zaniża wyniki lub pokazuje je jako dowód na to ze szczepionki są szkodliwe przez to cale społeczeństwo wierzy w takie historie.
Dodatkowo obecnie za nasza wschodnia granica toczy się wojna nie tylko konwencjonalna ale rownież a czasami dużo ważniejsza wojna informacyjna. Pojawiły się przez chwile pogłoski ze Federacja Rosyjska chce przy pomocy AI ze sfabrykować nagranie na którym
prezydent Zalensky podpisuje kapitulacje i prosi o złożenie broni w całym kraju przez Ukrainców.
Jak to możliwe że takie manipulacje mogą być az tak proste? Wystarczy zajrzeć w internet i w przeglądarce wpisać deepFake. Nagle ku naszym oczom pokaże się masa silników które używają GAN do generowania obrazów i video. Jedne przystosowane są aby generować tekst który ma by.c wypowiedziany przez znane osoby jak na Barack Obama:
Inne pozwalają zmanipulować mine osoby na obrazie np
A jeszcze inne na dodawanie efektów specjalnych do twarzy jak broda, wąsy, siwe włosy tatuaż itd.
Najczęściej aby wygenerować fałszywy obraz lub video wystarczy w silniku GAN wybrać zdjęcie które chcemy edytować i tekst który ma reprezentować treść którą chcemy przedstawić. Na podstawie tekstu mogą powstać klipy jak ten z Barackiem Obamą lub znacząco zmodyfikowane obrazy które bardzo przypominają podaja wcześniej osobę
.
Transformers
Sieci neuronowe typu tranformer są słusznie określane jako state of the arts we wszelkich zadaniach związanych z przetwarzaniem tekstu. Modele te doskonale sprawdzają się w zadaniach przewidywania kolejnego słowa tłumaczenia czy nawet odpowiadania na pytania. Jak można się domyślić doskonale sprawdzają się także do tworzenie nowych tekstów, więc z powodzeniem sprawdzą się w generowaniu fake news.
To stosunkowo nowa architektura, która została zaproponowna w roku 2017. Jego architektura jest dość skomplikowana, jednak najważniejszym elementem jest mechanizm atencji. Polega on na wychwyceniu relacji czyli ważności danego słowa w stosunku do innych w danym języku. Przykładowo wartości wektorów dla zdania “Mam piękne kwiaty”, będą większe niż w przypadku “Mam piękne wysypisko”. Zwyczajnie to drugie zdanie rzadziej występuje w języku polskim
Dla zainteresowanych szczegółami związanymi z budową tranformera odsyłamy to filmu Yannic Kilcher:
Okazuje się że architektury oparte na transformerach dobrze sprawdzają się nie tylko w generowaniu fałszych treści, ale także ich wykrywaniu. Autorzy artykułu “Two Stage Transformer Model for COVID-19 Fake News Detection and Fact Checking” prezentują możliwość wykorzystania modelu BERT dwuetapowo. W pierwszym kroku model wyciąga najważniejsze twierdzenia z tekstów dotyczących pandemii COVID-19. W drugim weryfikuje ich poprawność na podstawie ogólno dostępnych danych statystycznych. Użyty został zbiór, który został zweryfikowowany przez anotatora. Pozwoliło to wyszkolić model, który potrafi 95% skutecznością stwierdzać czy dany wpis jest prawdziwy czy też zawiera fałszywe informacje.
Z jednej strony to bardzo dobrze, że instnieją narzędzia oparte na Sztuczej Inteligecji, które pozwalają werfyfikować czy dana informacja jest prawdziwa, możemy również eliminować boty, które są odpowiedzialne za samo tworzenie tych treści. Dotarliśmy do danych, które zakładają że około 10% wszystkich kont na Twitterze, działa w sposób zautomatyzowany. Oznacza to, że około 30 milionów kont to boty. Na szczęście cały czas wdrażane są nowe rozwiązania, które między innnym dzięki analizie częstotliwości czy też rodzaju publikowanych treści są w stanie wykryć konta, które rozpowszechniają fałszywe informacje. W obecnej sytuacji pandemii, ciekawe wydaje się porównanie fake news, do wirusa, faktycznie, jeżeli jakiś post jest promowany i przekazywany dalej, to wyłączenie takiej wiadomości z obiegu jest niemal nie możliwe.
Z drugiej strony używanie automatycznych sytemów ma swoje wady, jak wiemy każdy algorytm może się pomylić. Użycie słów kluczowych jak pandemia czy COVID, nie zawsze oznacza, że dany tekst czy wideo należy zablokować. Szczególnie z tym problemem borykają się twórcy portalu YouTube, którzy muszą bardzo uważać na to co mówią. To ważne, aby rozwijając kolejne sytemy sztucznej inteligecji do wykrywania treści nieprawdziwych, pamiętano, że ważny jest przedewszystkim konekst danej wypowiedzi.
Podsumowanie
Podsumowując dwie możliwości generowania fake newsów możemy dojść do wniosku, że już teraz jest to spory problem dla serwisów społecznościowych. Obecnie jest to większy problem, niż może się wydawać. Jak duży będzie w przyszłości możemy tylko prognozować – znowu za pomocą algorytmów data science? Znowu damy się ponieść fake-newsom? Sieci GAN najprawdopodobniej wejdą na całkiem nieznany nam poziom i o ile teraz możemy zauważyć zniekształcenia obrazu podczas generowania video to w przyszłości będzie bardzo cieżko odróżnić takie obrazy. Zamiast tylko panikować możemy tez pamiętać o tym, ze fake newsy w formie tekstu coraz lepiej będzie tez można wykrywać za pomocą transformerów. Bardzo dużo firm oraz wydawnictw mocno inwestuje w technologię, które pozwoli na coraz to dokładniejszą detekcję takich fragmentów lub nawet całych artykułów. Youtube kara twórców albo wycofywaniem ich filmów kiedy algorytm wykryje słowa dające świadectwo fake newsa. Ograniczają się też do mniej radykalnych form takich jak demonetyzacja. Wszystkie takie zabiegi dają wewnętrzny spokój i wiarę że jest szansa na to ze spekulanci przy pomocy algorytmów data science. lub nawet samo AI nie zawładnie naszymi umysłami.
Bibliografia
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
Vijjali, R., Potluri, P., Kumar, S., & Teki, S. (2011). Two stage transformer model for covid-19 fake news detection and fact checking (2020). arXiv preprint arXiv:2011.13253.
Kai Shu 1 , Suhang Wang 2 , Dongwon Lee 2 , and Huan Liu 1 (2020). Mining Disinformation and Fake News: Concepts, Methods, and Recent Advancements arXiv:2001.00623v1.
Olympia A. Paul, 2021, Deepfak Deepfakes Gener es Generated by Gener y Generative Adversarial Networks ersarial Networks, Georgia Southern University
Zajebiste byqczki