Home » Socjologia UJ 2023/24 » Deepfake – czy jesteśmy w stanie odróżnić prawdę od fikcji?

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 21

Deepfake – czy jesteśmy w stanie odróżnić prawdę od fikcji?

Spread the love

Czy wyobrażasz sobie sytuację, w której Twoje zdjęcie staje się protagonista niechcianej produkcji porno? Deepfake, czyli technologia umożliwiająca realistyczne manipulacje wideo i obrazów, stała się coraz bardziej powszechna. Dodatkowo zdaje się, że zjawisko może eskalować na skutek popularyzacji i ogólnej dostępności innych zaawansowanych algorytmów generatywnych. Oto rozważania na temat społecznego odbioru deepfake i jego potencjalnych skutków.

Czym jest deepfake?
Rozpoczynając rozważania na temat społecznych skutków i odbioru wykorzystania technologii deepfake, należy wskazać czym dokładnie jest ta technologia oraz na czym opiera się jej działanie. Deepfake to technologia, która wykorzystuje sztuczną inteligencję do generowania lub edytowania wideo, bądź audio aby pokazać coś, co nigdy się nie wydarzyło. Powstał z połączenia pojęć deeplearning (głębokie uczenie) oraz fake (falsyfikat). Poniżej zaprezentowano w poszczególnych etapach jak działają te algorytmy.

  • Zbieranie danych

Pierwszym krokiem w tworzeniu algorytmu deepfake jest zebranie dużej ilości danych, które zawierają nagrania wideo czy audio osoby, które mają zostać podrobione.

  • Uczenie maszynowe

Algorytm deepfake wykorzystuje głębokie sieci neuronowe do analizy i nauki z zebranych danych. Sieci neuronowe są wielowarstwowymi strukturami matematycznymi, które mogą wyodrębniać cechy z obrazów i dźwięku, a następnie przekształcać je w odpowiedniki na podstawie wzorców.

  • Generowanie fałszywych treści

Po nauczeniu się charakterystyk danej osoby, algorytm deepfake może generować fałszywe treści, takie jak wideo lub audio, na podstawie określonych danych wejściowych. Na przykład, jeśli chcemy stworzyć fałszywe wideo z osobą A, która mówi słowa osoby B, algorytm może wykorzystać obrazy z osoby A i dźwięk z osoby B, aby stworzyć wiarygodny film z fałszywym przekazem.

  • Dopasowywanie detali

Aby osiągnąć większą wiarygodność, algorytmy deepfake mogą dokładnie dopasowywać ruchy ust, mimikę twarzy i inne szczegóły do oryginalnych nagrań. Może to wymagać zaawansowanych technik przetwarzania obrazu i dźwięku.

  • Ocena i poprawa

Tworzenie udanego deepfake może wymagać wielu prób i błędów. Algorytm musi być oceniany pod kątem jakości i wiarygodności, a następnie modyfikowany, aby poprawić wyniki np. poprzez dostosowywanie parametrów sieci neuronowej i dodawanie dodatkowych danych.

Podsumowując, Rozwiązanie opiera się na algorytmach tzw. generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych, np. cech powtarzających się w fotografiach, wideo czy dźwięku – mimiki, intonacji, tików – tak, by móc odtworzyć – dajmy na to – twarz aktorki w różnych ustawieniach. Drugi element GAN porównuje prawdziwe i fałszywe obrazy i sprawdza, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.

 

Początki zjawiska

W listopadzie 2017 roku, użytkownik platformy Reddit pod pseudonimem „DeepFakes”, zamieścił na niej film, w którym pokazał jak można za pomocą głębokiego uczenia maszynowego doklejać głowy i twarze celebrytów do ciał aktorów i aktorek filmów pornograficznych. Użytkownik poza pokazem możliwości technologii, udostępnił opracowane przez siebie proste narzędzie, dzięki któremu materiały takie tworzyć mogli inni forumowicze. Pierwsze spreparowane treści pornograficzne z Gal Gadot czy Taylor Swift w roli głównej bardzo szybko rozeszły się po internecie, zazwyczaj bez adnotacji, iż są to treści fałszywe. W serwisie zaroiło się od fałszywego porno, ale i mniej groźnych podmianek twarzy aktorów w filmowych hitach.

W kwietniu 2018 roku serwis Buzzfeed stworzył wideo, w którym Barack Obama nazywa prezydenta Donalda Trumpa głupkiem. W rzeczywistości zdania wypowiadał reżyser Jordan Peele, a postać Obamy była wygenerowana na podstawie istniejących nagrań. Przeróbki tworzono też z twarzami Władimira Putina czy Donalda Trumpa. Kolejne modyfikacje  pojawiły się w postaci słynnych scen filmowych, w których zmieniani są aktorzy, jak jedna z pierwszych scena ze „Lśnienia” gdzie zamiast Jacka Nicholsona oglądać możemy Jima Carreya. W czerwcu 2019 roku świat obiegło nagranie z udziałem Marka Zuckerberga wygłaszającego krótką mowę, którą przetłumaczyć można mniej więcej tak: „Wyobraź to sobie. Jeden człowiek z całkowitą kontrolą nad skradzionymi danymi miliardów ludzi. Wszystkie ich sekrety, ich życie, ich przyszłość”. Na owym nagraniu nie widzimy prezesa Facebooka, lecz jego cyfrową replikę.

Większość społeczności Reddita nie uznawała za problematyczne zmanipulowane obrazy z udziałem celebrytów, ale wykorzystywanie do tego celu wizerunków zwykłych osób. Rozmowy dotyczyły głównie tego, czy dozwolonym jest tworzenie materiałów porno z osobami z naszego otoczenia, które się nam podobają, tj. koleżanki z pracy czy osoby znane z widzenia. Wielu użytkowników przyznawało, że rodzi to w nich pewne wątpliwości, ale potrzeby erotyczne zwykle górują nad etycznymi rozterkami. W wyniku medialnych dyskusji nad zagrożeniami związanymi z pojawieniem się tej technologii, a także zachwianiu reputacji celebrytów, większość fałszywych treści pornograficznych została usunięta z mediów społecznościowych. Zlikwidowano również odnośniki do upublicznionego narzędzia, które pozwalało owe materiały generować. Jednakże treści te, jak wszystko co w sieci balansuje, czy wręcz przekracza granice prawne i etyczne przeniosły się do tzw. dark webu.

 

Skala zjawiska

Zdaniem firmy Sensity, na którą powołuje się w swoim artykule serwis NBC News, aż 96 procent deepfakeów ma charakter jednoznacznie seksualny i przedstawia wizerunek kobiet, które nie wyraziły na to zgody (stan na marzec 2023). W 2019 roku została udostępniona aplikacja mobilna DeepNude, która umożliwiała tworzenie realistycznych obrazów nagich kobiet na podstawie przesłanych zdjęć prawdziwych osób. Pomimo krytycznej opinii i tego, że program scrackowano nadal był dostępny w internecie. Zadziwiające jest to, że obecnie w internecie mamy wiele aplikacji, które pozwalają na tworzenie deepfake’owych wideo każdemu. Przykładami obecnie najbardziej popularnych są:
– Face Swap Live (darmowa)
– DeepFaceLab (darmowa)
– Deepswap
– My Heritage

Dużą ilość oprogramowania do deepfake’ów można znaleźć też na GitHubie, społeczności deweloperów mających dostępu do zbiorów typu “open source” (otwarte oprogramowanie).

 

Klonowanie głosu, Vishing

Serwis ElevenLabs umożliwia nam generowanie dowolnej frazy wypowiedzianej głosem kogo tylko chcemy. Wystarczy załączyć minutową próbkę głosu i mamy gotowy generator. Wymagane jest odznaczenie potwierdzenia, że mamy prawo do używania danego głosu, jednakże część osób niezbyt się przejmuje tego typu checkboxami. Słyszeliśmy już o przypadkach klonowania głosów celebrytów, którzy następnie „wypowiadali” rozmaite kompromitujące frazy. Ale największym zagrożeniem jakim się za tym kryje jest vishing, czyli podszywanie się za pomocą zpreparowanego głosu pod inną osobę w celu wyłudzenia informacji lub pieniędzy. W Emiratach Arabskich podszyto się pod prezesa firmy energetycznej i tym sposobem wyłudzono pieniądze na przeszło 100 mln złotych. Pracownicy byli przekonani, że rozmawiają z prezesem i wykonali zlecony przelew.

 

Detekcja

Zatem wiemy już, iż skala występowania deepfake’ów jest ogromna, z chwilą pojawienia zyskały popularność i rozprzestrzeniły się w zawrotnym tempie. Ale zasadnym jest pytanie jak zwykli użytkownicy radzą sobie z odróżnianiem fałszu od realizmu. A jak radzą sobie z tym specjaliści?

 

W sierpniu 2019 roku zawiązano specjalną grupę DFDC (Deepfake Detection Challenge) w odpowiedzi na obawy przed rozwojem tej technologii. Był to swego rodzaju otwarty konkurs na algorytm wykrywający manipulacje w materiałach wideo, organizowany przez Facebook, Amazon oraz Microsoft. Programistom poza możliwością przyczynienia się w rozwój dobrostanu społeczeństwa, oferowano również nagrody pieniężne o puli 10mln dolarów, co dodatkowo miało zmotywować uczestników. Wyzwanie podjęło ponad 2 tysiące zespołów, a zgłoszonych algorytmów było ponad 35 tysięcy. Zespół, który zajął 1 miejsce, uzyskał wskaźnik detekcji na poziomie tylko 65%! Natomiast ponad 60% zgłoszonych algorytmów uzyskało wartość wskaźnika na poziomie 50% lub niższym, co oznacza, że tak naprawdę przynosiły losowe rezultaty.

Skoro specjaliści od technologii mają problemy z rozpoznawaniem fałszywych treści, wydaje się że przeciętni użytkownicy sieci również. Na kanale YT o nazwie „LICHTCATCHTOBY” badacz przeprowadził na grupie około 1000 osób test na detekcję, na podstawie 10 wideo zawierających zarówno prawdziwe osoby jak i podmienione technologią deepfake. W rezultacie badani mieli z tym ogromny problem, gdyż ani jedna osoba nie uzyskała wszystkich prawidłowych odpowiedzi. Twórca zaznacza jednak, iż treści do badania stworzył rok wcześniej, a z obecną wiedzą i umiejętnościami jest w stanie tworzyć jeszcze bardziej realistyczne projekcje.

Twoja twarz może zostać gwiazdą porno – walka z revenge porn

Pewnego dnia działaczka i aktywistka Kate Isaacs podczas przeglądania Twittera w swoich powiadomieniach natknęła się na niepokojący materiał. Zobaczyła siebie w produkcji pornograficznej. Ogarnęła ją panika i nieuzasadniony wstyd. Tysiące myśli pojawiających się w głowie i świadomość tego, że zobaczyć to mogą wszyscy włącznie z bliskimi znajomymi i rodziną. Kiedy jednak szok minął, aktywistka podjęła stanowcze kroki zapobiegawcze. Tak w 2019 zainicjowała niezwykle ważną kampanię #NotYourPorn. Jej działalność przyczyniła się do usunięcia z największej witryny z materiałami dla dorosłych PornHub ponad 10 milionów wideo, które zawierały wizerunek kobiet bez ich wiedzy i zgody. Mówi się, iż ta inicjatywa dała początek walki ze zjawiskiem revenge porn – polegającym na tym, że użytkownik publikuje w sieci film z udziałem byłej partnerki lub kobiety, na której chce dokonać zemsty.

 

Czy można zapobiec skali i produkcji deepfake’ów?

Wydaje się, że odpowiedź na to pytanie brzmi niestety przecząco. Na skutek ciągłego rozwoju sztucznej inteligencji i udostępniania rozmaitych generatorów grafiki, obrazu, dźwięku, głosów i możliwością ich obróbki tak by wyglądały jak realistyczne kreacje. Wkroczyliśmy w erę cyfryzacji, społeczeństwa informacyjnego wystawionego na odbiór nowych technologii. Nie sposób w dzisiejszych czasach ustrzec się zjawisku postprawdy, szerzącej się dezinformacji, manipulacji faktami i kreowaniu uwagi na rzeczy nieistotne. Technologie takie jak deepfake tylko pozwalają aby owe zjawiska i mechanizmy funkcjonowały, są narzędziem w celach dezinformacyjnych i dyskredytacyjnych, a nie tylko służą rozrywce czy edukacji.

Warto przywołać tu słowa prof. dr hab. Dariusza Jemielniaka z Akademii Leona Koźmińskiego, specjalistę w badaniu społeczności internetowych i analizujący dezinformację w sieci. Zapytany o to czy można zapobiec skali i produkcji deepfake’ów:

 „Moim zdaniem nie można temu zapobiec. Technologia video deepfake błyskawicznie się doskonali, tanieje i jest łatwiejsza w użyciu. W perspektywie roku-dwóch niemal każdy będzie mógł wyprodukować dowolny film z dowolną osobą robiącą dowolną rzecz. A w każdym razie będzie to zwyczajnie niedrogie. Trzeba jednak pamiętać, że równolegle nastąpi proces desensytyzacji na materiały video – przestaną wywoływać wrażenie autentyczności”

 

 

Badanie opinii studentów

Na koniec chciałbym przedstawić badanie opinii studentów Instytutu Socjologii UJ na temat technologii deepfake. Wybór grupy docelowej podyktowałem tym, iż studenci są według mnie w większości bardzo dobrze zaznajomieni z nowymi technologiami i często się nimi interesują. Chciałem zatem sprawdzić z ich perspektywy czy widzą w tym zjawisku zagrożenie, czy dostrzegają dobre aspekty oraz na ile myślą, że są w stanie skutecznie rozpoznawać treści o takim charakterze.  Wyniki przedstawiam poniżej

Kwestia świadomości istnienia treści deepfake i korzystania z narzędzi: Wszyscy respondenci zetknęli się z takimi treściami, ale tylko 16,7% kiedykolwiek tworzyło coś za pomocą aplikacji.

Kwestia społecznego odbioru zjawiska: Za zdecydowanym negatywnym wpływem na społeczeństwo opowiedziało się 16,7% respondentów, raczej negatywnie ocenia to zjawisko aż połowa badanych. Raczej pozytywny wpływ widzi tu 8,3%, jednakże nikt nie uważał, aby miało to zdecydowanie pozytywnie wpływa na ludzi. Aż 41,7% badanych obawia się o ochronę swojej prywatności, zaś tyle samo nie jest przekonana czy się tego obawia. Jednakże 2/3 badanych uważa, iż technologia ta może mieć pozytywny wpływ na niektóre obszary społeczeństwa.

Kwestia wykrywania fałszywych treści: 91,7% badanych sądzi, że detekcja spreparowanych treści w przyszłości będzie jeszcze trudniejsza. Nikt nie stwierdził, że obecne algorytmy do wykrywania są zdecydowanie skuteczne, 41,7% uznała, że są skuteczne ale tylko w pewnym stopniu. 1/3 badanych stwierdziła, że nie są skuteczne. Stąd, aż 83,3% respondentów uznał za priorytetowe rozwijanie lepszych metod detekcji, a pozostali nie byli przekonani, jednak nie przeciwni. Połowa badanych uważa, iż nie można zapobiec skali i produkcji deepfake’ów, a tylko 16,7% wyraża w tej materii odmienne zdanie.

 

Źródła:

N. Young, DeepFake Technology: Complete Guide to Deepfakes, Politics and Social Media, [niezależny wydawca], New York 2019

https://konkret24.tvn24.pl/tech/seks-ktorego-nie-bylo-a-ktory-zobaczyl-caly-swiat-czyli-deepfake-ra874234-ls5791391

https://konkret24.tvn24.pl/tech/wyscig-zbrojen-xxi-wieku-technologie-deepfake-coraz-lepsze-i-grozniejsze-ra960083-ls5791855

https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard-download-rcna75071

https://www.geeksforgeeks.org/10-best-deepfake-apps-and-websites-you-can-try-for-fun/

https://www.kaggle.com/c/deepfake-detection-challenge

https://kobieta.gazeta.pl/kobieta/7,107881,29069358,niebezpieczne-zjawisko-deepfake-w-pornografii-zobaczylam-swoja.html

https://cyberdefence24.pl/cyberbezpieczenstwo/deepfake-w-branzy-porno-czy-jestesmy-gotowi-na-plage-falszywych-materialow


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…