Home » 2022 » Raport: Deep fake – kradzież ciała, zdarzeń, zachowania. Jakie iluzje są w stanie wytworzyć techniki SI, jakie niesie to zagrożenia

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 100
  • 616
  • 25 026
  • 7 315
  • 49

Raport: Deep fake – kradzież ciała, zdarzeń, zachowania. Jakie iluzje są w stanie wytworzyć techniki SI, jakie niesie to zagrożenia

Spread the love

Barack Obama nazywający Donalda Trumpa d*pkiem lub królowa Elżbieta opowiadająca o TikToku podczas świątecznego orędzia do narodu to klasyczne przykłady deep-fake’ów, które już dawno temu każdy powinien pokazać swoim rodzicom i dziadkom, by ci nie wyrzucili oszczędności swojego życia przez balkon, gdy zobaczą naszą twarz i usłyszą nasz głos podczas rozmowy na Skype z perfidnymi oszustami umiejącymi w sieci neuronowe. Jak poważne jest zagrożenie, czy da się to jakoś powstrzymać i czy możemy w ogóle jeszcze komuś ufać?

Czym jest deep fake?

Najprościej mówiąc, deep fake to materiał audiowizualny, który został sfabrykowany z wykorzystaniem sztucznej inteligencji. Najczęściej stosowaną operacją jest zmiana osoby rzeczywiście występującej na inną (ang. face-swapping). Sam termin „deep fake” powstał dopiero w 2017 roku na Reddicie [1] i jest złożeniem słowa „deep”, nawiązującego do uczenia głębokiego, oraz „fake”, oznaczającego podróbkę, falsyfikat. Sama technologia jest stosunkowo nowa, gdyż opiera się na sieciach typu GAN (ang. Generative Adversarial Network) i pierwszy raz została zaprezentowana w 2014 roku. Taka sieć jest trenowana na pewnym zbiorze danych, a następnie odpytywana o kolejne próbki. Już na wstępie może się wydawać, iż jej aplikacja do „emulowania” zachowania innego człowieka jest wręcz naturalna. Mamy przecież praktycznie nieograniczone dane treningowe w postaci setek czy tysięcy zdjęć oraz materiałów wideo wysokiej jakości przedstawiających czołowych polityków z danych krajów czy też nawet pojedynczych użytkowników portali społecznościowych. W przypadku tych ostatnich dość ironiczny wydaje się fakt, iż te same zdjęcia, które wrzucają oni w celu pochwalenia się swoimi przeżyciami, mogą zostać potem użyte do podrobienia ich osobowości. Jednakże powyższe sieci mają też bardzo wiele innych zastosowań jak upscaling (zwiększanie rozdzielczości wideo) i dodawanie detali do zdjęć czy też gier wideo albo zastosowania kreatywne takie jak generowanie sztuki.

Zawężając tematykę tylko do deep-fake’ów związanych z osobami, warto tutaj jednak podkreślić, że człowiek jest bardzo dobry w wykrywaniu takowych. Dopiero niedawno udało się uzyskać tak dobry poziom wytrenowania sieci, iż przeciętny „Kowalski” nie jest wstanie wskazać, czy jest to podróbka czy też nie. Co więcej, głównym medium przesyłania takich nagrań jest w dzisiejszych czasach internet, przez co wiele osób jest w stanie powoli oglądać materiał w celu sprawdzenia niedoskonałości albo podejrzanych elementów. Przykładem tutaj może być niedawne „ogłoszenie pokoju” przez prezydenta Ukrainy.

Zastosowania

O ile bardzo ciężko byłoby wymienić wszystkie zastosowania technologii deep fake ze względu na wręcz nieograniczoną ludzką kreatywność to warto byłoby się skupić tutaj na dwóch, które posiadają największy wpływ na opinie społeczeństwa oraz życie ofiary.

Polityka

Przez ostatnie lata pojawiła się znaczna ilość deep-fake’ów związanych z osobami publicznymi. Profile takich materiałów mają bardzo zróżnicowany charakter: rozpoczynając od filmików które mają służyć jako czysta rozrywka, a kończąc na materiałach podrabiających opinie czy też decyzje takich jednostek. Przykładami tutaj wspomniane wcześniej „przemówienie” prezydenta Zełeńskiego czy też Baracka Obamy dość bezpośrednio obrażającego Donalda Trumpa (https://youtu.be/g5wLaJYBAm4). Celem jest to, aby deep fake stał się viralem (materiał rozpowszechniany w tempie wykładniczym, zupełnie jak namnażanie wirusów, stąd nazwa), aby zmylić opinię publiczną podając mylne informacji i wywołać chaos informacyjny, który może doprowadzić do podjęcia niewłaściwych decyzji na najwyższym szczeblu.

Pornografia

Większość z nas pewnie nie zdaje sobie z tego sprawny, natomiast biznes pornografii jest warty około 35 miliardów dolarów a ta kwota bardzo szybko rośnie. Z racji tego branża ta intensywnie inwestuje w swój rozwój: zaczynając od sprzętu takiego jak profesjonalne kamery a kończąc na software. Idea deepfake bardzo dobrze wpisuje się w kierunek rozwoju takiej gałęzi przemysłu. Mamy do dyspozycji praktycznie nie zliczone ilości filmów które mogą posłużyć jako materiał treningowy by później móc tworzyć nowe treści. Ciekawe jest dodatkowo to, iż w momencie gdy treści będą generowane ich twórca będzie miał nad nimi absolutną kontrolę: kobiety zawsze będą piękne i szczupłe a mężczyźni umięśnieni co jeszcze bardziej uwidoczni aktualne konsekwencje.

Oprócz tego należałoby wymienić jeszcze dwa zastosowania deepfake w pornografii: celebrity porn i revenge porn (ciekawy czytelnik niech sam sprawdzi, co te pojęcia oznaczają). Pierwsze z nich jest zbliżone do kradzieży osobowości osób publicznych natomiast tutaj głównymi ofiarami są kobiety, w szczególności atrakcyjne aktorki. Niestety, z racji tego, iż wkraczamy tutaj w strefę intymności proceder ten wiąże się ze złamaniem pewnych ogólnie przyjętych norm społecznych co jest szczególnie ważne dla osób publicznych. Oba typy materiałów mogą być stosowane do upokorzenia osoby „wklejonej” w materiał, co ma niebagatelny wpływ na ich psychikę. Niestety, aktualnie jest niewiele co taka osoba może zrobić, jednakże dynamicznie się to zmienia. Przykładem tego jest Pornhub, który zaczął blokować treści, które zostaną uznane za deep fake. Czy jest to wystarczające? Prawdopodobnie nie, niektóre osoby publiczne po prostu pogodziły się, że co jakiś czas takie materiały będą z nimi tworzone i publikowane. Co ciekawe jest to dość odmienne podejście od naturalnej chęci usunięcia każdej kopii takiego wideo, zamiast walczyć z każdą stroną która je przechowuje poprzez otwarte przyznanie, że to deepfake takie osoby prowadzą niejako kampanię informacyjną na temat tego zjawiska. Niestety smutny jest fakt, iż na efektywne prowadzenie takiej akcji są w stanie jedynie sobie pozwolić osoby publiczne a nie zwykli ludzie.

Wpływ na społeczeństwo oraz skutki uboczne

Popularyzacja deep-fake’ów niesie ze sobą utratę wiary zwykłych ludzi w to, co widzą. Jest to o tyle martwiące, iż stawia pod znakiem zapytania skuteczność aktualnych środków przekazu masowego jak internet czy telewizja. Z biegiem czasu coraz trudniej będzie przekazywać treści w tych mediach gdyż powiększać będzie się grono osób sceptycznych co do ich wiarygodności. Jest to zjawisko dość niepokojące ponieważ będzie dochodziło do wybierania sobie informacji zgodnych z naszym rozumieniem rzeczywistości z kontekstu co prowadzi do zakrzywienia obrazu rzeczywistości. Coraz łatwiej będzie prowadzić kampanie dezinformacyjne czy propagandowe.

Warto również zauważyć, że deepfake jest kolejną ewolucją fotomontażu, a dokładniej rozszerzeniem go w dziedzinie czasu oraz wzbogaceniem o ścieżkę audio zsynchronizowaną z obrazem. W praktyce oznacza to, że wiele obserwacji dotyczących zjawiska fotomontażu może okazać się równie trafne podczas analizy problematyki związanej z deepfake’ami.

Zwróćmy uwagę, że ocena prawdziwości materiału jest w rzeczywistości zadaniem klasyfikacji binarnej, a zatem oceniając prawdziwość materiału możemy popełnić błąd na dwa sposoby. Pierwszym rodzajem błędu jest omówione wcześniej zaklasyfikowanie deepfake’a jako prawdziwego wideo. Jeśli potraktujemy deep fake jako klasę pozytywną, w terminologii klasyfikacji binarnej będzie to tzw. false positive, czego odpowiednikiem może być fałszywy alarm o podłożonej bombie. Pewnym paradoksem wynikającym z istnienia deepfake’ów jest jednak drugi rodzaj błędu, który polega na tym, że prawdziwy materiał filmowy ocenimy jako deep fake (tzw. false negative). To zjawisko, podobnie jak ignorowanie telefonów o podłożonej bombie, może okazać się jeszcze gorsze w skutkach. Załóżmy, że udało nam się zarejestrować materiał wideo z jakiegoś przestępstwa. Co jeśli sąd uzna ten materiał jako deepfake? W jaki sposób udowodnić, że materiał nie został sfabrykowany? Czy za kilkanaście lat pojawią się głosy, że nie ma dowodu na to, że Putin wiedział o wojnie na Ukrainie, a nagranie, na którym we własnej osobie ogłasza rozpoczęcie „specjalnej operacji militarnej” to deepfake?

Wiele wskazuje na to, że wraz z rozwojem technologii umożliwiającej tworzenie coraz lepszych deepfake’ów będzie rosło zapotrzebowanie na technologię umożliwiającą potwierdzanie prawdziwości rejestrowanych materiałów. Już teraz istnieją programy, które potrafią rozpoznać, które piksele pochodzą z oryginalnego materiału, a które zostały wygenerowane przez sztuczną inteligencję. Programy te są jednak wykorzystywane podczas procesu trenowania sieci neuronowych, aby tworzone treści były odporne na tego typu oprogramowanie, więc powstają kolejne algorytmy do oceny prawdziwości, i tak w kółko.

Potencjalne kierunki rozwoju oraz zagrożenia

Patrząc w przyszłość wydaje się to nieuniknione, iż deep-fake’i staną się coraz bardziej przekonywujące oraz popularne. Jest to wspomagane przez fakt znacznego postępu w dziedzinie sieci neuronowych oraz coraz to lepszego sprzętu umożliwiającego wytworzenie jeszcze lepszych modeli.

Pytanie jakie należy sobie zadać to “Co można z tym zrobić?”. Tutaj jak zawsze nie ma jednoznacznej odpowiedzi i wiele zależy od norm społeczno-etycznych jakie są przyjęte w danej społeczności. Oczywistym ale jednak nie możliwym do wprowadzenia rozwiązaniem jest ograniczenie użycia deep fake ze względu na oszustwa. Innym pomysłem jest prawna regulacja tego aspektu i to dzieje się już teraz. Pewną analogią z klasycznego, niecyfrowego świata są przepisy zakazujące fałszowania dokumentów, podpisów lub składania fałszywych zeznań pod surowymi karami. Podobnie jak fałszerstwo, produkcja i dystrybucja sfabrykowanych materiałów wideo może mieć katastrofalne skutki. Niestety historia podpowiada, iż politycy nie mają zbyt wiele doświadczenia i wiedzy o nowych technologiach przez co nie posiadają wiedzy domenowej pozwalającej na szybkie i skuteczne działania. Na tym etapie można by się pokusić o jeszcze jedno alternatywne rozwiązanie, które de facto miałoby znacznie bardziej daleko idące skutki: prowadzenie kampanii edukacyjnych na temat istnienia oraz weryfikacji informacji. Takie rozwiązanie nie tylko sprawdzi się w kontekście deep fake ale też skłoni przeciętnego konsumenta treści do weryfikacji źródeł materiałów czytanych co (jak pokazuje wojna na Ukrainie) może mieć niebagatelne znaczenie w kryzysowych sytuacjach.

Deep fake jest jedynie technologią i jak każde narzędzie, może zostać wykorzystane w dobry albo w zły sposób, w zależności od intencji użytkownika. Siła deep-fake’a tkwi nie w samym filmiku lub jego treści, lecz w skutkach, do których może doprowadzić uznanie go za prawdziwy materiał. Właśnie z tego powodu, twórcom internetowych deep-fake’ów (zwanych również często „ruskimi trolami”) najbardziej zależy na rozpowszechnianiu materiałów, tak aby stały się pewnego rodzaju viralami i trafiły one do jak największej części użytkowników. Warto zauważyć, że deep fake jest po prostu fake newsem, lecz zamiast tekstu formą przekazu jest wideo. Dlatego to właśnie na nas, użytkownikach platform społecznościowych, spoczywa odpowiedzialność, aby weryfikować informacje, zanim przekażemy je dalej. W szczególności, za każdym razem kiedy klikamy na łapkę w górę, ikonkę reakcji lub przycisk “Podaj dalej”, powinniśmy zadać sobie pytanie, jakie może mieć to konsekwencje i komu zależałoby na tym, aby informacja trafiła do jak największej grupy odbiorców.

Literatura

[1] “Deepfakes, explained” by Meredith Somers (https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained)

[2] “It’s Getting Harder to Spot a Deep Fake Video” (https://www.youtube.com/watch?v=gLoI9hAX9dw)

[3] “Ethical Considerations of Deepfakes by Kiara Goodwine” (https://www.prindlepost.org/2020/12/ethical-considerations-of-deepfakes/)

[4] “Debating the ethics of deepfakes” by Ashish Jaiman (https://www.orfonline.org/expert-speak/debating-the-ethics-of-deepfakes/)

[5] “Deepfakes & Misinformation: The Ethics Behind AI” by Basil Han (https://aisingapore.org/2021/06/deepfakes-misinformation-the-ethics-behind-the-ai/)


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…