Home » 2022 » Deep fake – skutki, przeciwdziałanie

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 93

Deep fake – skutki, przeciwdziałanie

Spread the love
Źródło:https://www.komputerswiat.pl/wykrywanie-deepfake

Oszustwo ma wiele twarzy, a jedną z nich jest deepfake. W dzisiejszych, cyfrowych czasach niezwykle popularne staje się użycie sztucznej inteligencji, a dokładniej uczenia głębokiego do zmiany wizerunku. Nowa technologia pozwala na całkowite podszycie się pod inną osobę, włączając w to nie tylko zmianę wyglądu, ale również zmianę głosu jak i otoczenia.

“The technology can be used to make people believe something is real when it is not.” Peter Singer, cybersecurity and defense focused strategist and senior fellow at New America

 

Czym jest deepfake?

Nazwa “deepfake” wywodzi się od “deep learning” (pol. uczenie głębokie – podkategoria sztucznej inteligencji, a dokładniej uczenia maszynowego) oraz “fake” (pol. falsyfikat).

Termin deepfake oznacza sfałszowane materiały audiowizualne, ukazujące sztucznie wygenerowane twarze, głosy oraz gesty, które przybierają postać istniejących osób. Pozwalają na to techniki sztucznej inteligencji, które generują sfabrykowane obrazy i dźwięki sprawiające wrażenie prawdziwych.

W niektórych dziedzinach sztuczna inteligencja jest pomocna i nieoceniona, wykorzystywana do pomocy lekarzom czy ułatwiająca codzienne prace. Jednak wszystko ma swoją ciemną stronę. Sieci neuronowe potrafią przetwarzać oraz analizować mowę, gesty, mimikę twarzy, aby na tej podstawie stworzyć postać imitującą autentyczną osobę. Ta wygenerowana postać, ukazana na filmie udostępnionym w Internecie, dla przeciętnego odbiorcy sprawiać będzie wrażenie, jakby była postacią prawdziwą.

Jako przykład deepfake, poniżej zamieszczona została grafika, która po lewej stronie ukazuje oryginalne zdjęcie Marylin Monroe oraz Alberta Einsteina. Samsung na podstawie tylko jednego zdjęcia tych znanych osób stworzył filmik
z ich udziałem, którego zrzuty ekranu możemy zobaczyć po prawej stronie grafiki.

Marylin Monrole oraz Albert Einstein, po lewej oryginał a po prawej deepfake.
Marylin Monrole oraz Albert Einstein, po lewej oryginał a po prawej deepfake. Źródło:https://ithardware.pl/aktualnosci/samsung_poprawia_technologie_deepfake_i_tworzy_filmy_z_jednego_zdjecia-9363.html

Skutki

Jak można się domyślać, na działanie deepfake narażone są szczególnie osoby sławne: celebryci, politycy. Prawdą jest jednak, że przy obecnej technologii wystarczy jedno zdjęcie wrzucone w internet ukazujące naszą twarz, aby stworzyć deepfake. W Internecie można niejednokrotnie zobaczyć wideo ukazujące danego polityka wyrażającego pewne poglądy niezgodne z jego przekonaniami. Materiały takie najczęściej powstają w celach dezinformacyjnych i mają na celu szerzenie propagandy. Skutki takich działań mają kolosalny wpływ na opinię publiczną oraz szerzą chaos. 

Kolejnym częstym powodem powstawania tego typu multimediów jest wyśmianie obranej na cel osoby czy też pokazanie jej w określonym świetle. Czasami jest to zwyczajnie śmieszny obrazek – inaczej “mem” ze zmienionym wyrazem twarzy, natomiast nikt nie byłby zadowolony gdyby został niesłusznie ośmieszony przed szerszą publiką za pomocą spreparowanej grafiki. Na tego typu materiałach często można zobaczyć celebrytów. Działania te mogą prowadzić do stanów lękowych oraz depresyjnych, a dodatkowo mogą zagrozić karierze.

Skoro już mowa o celebrytach, szczególnie kompromitującym wykorzystaniem ich grafik w kontekście oszustwa jest pornografia. Termin deepfake po raz pierwszy pojawił się na platformie Reddit pod koniec 2017 roku. Na podforum r/deepfakes wymieniano się wtedy amatorsko wykonanymi deepfake’ami, z których najpopularniejszymi były sfałszowane filmy pornograficzne, wykorzystujące wizerunek niezwiązanych z branżą erotyczną celebrytek. Jest to realny środek przemocy w stosunku do kobiet. https://scroll.morele.net/technologia/technika-deepfake-co-to-jest-i-dlaczego-moze-byc-niebezpieczna/

Deepfake to również coraz większa przeszkoda dla organizacji w kontekście cyberbezpieczeństwa. Cyberprzestępcy wykorzystują zmanipulowane treści cyfrowe w cyberatakach
i oszustwach. Istnieje pewien ryzykowny trend, w którym spreparowane grafiki wykorzystywane są do ominięcia weryfikacji biometrycznej. Przykład: rozpoznawanie twarzy, rozpoznawanie głosu. Technologia ta może być wykorzystana do automatycznego uwierzytelnienia tożsamości danej osoby. Jest to szczególnie niebezpieczne dla organizacji polegających na niej
w kontekście zarządzania dostępem, zatem muszą one być świadome rosnących zagrożeń typu deepfake, a najlepiej podjąć konkretne kroki w celu obrony przed takimi działaniami.

“Już wkrótce będzie możliwe tworzenie realistycznych materiałów, bazując na zaledwie jednym zdjęciu “ofiary” wyciągniętym z Facebooka czy Instagrama.”
 Prawda czy Fałsz?

“Podążając za ubiegłorocznym trendem, ta oraz powiązane techniki wymagają coraz mniej danych i generują coraz bardziej wyrafinowane i atrakcyjne treści. Wyniki te są kolejnym krokiem w ewolucji technik… prowadzącym do tworzenia treści multimedialnych, które w końcu będą nie do odróżnienia od prawdziwych nagrań” Hany Farid, badacz
z Dartmouth.

W multimediach stworzonych przy pomocy jednego zdjęcia widoczne są niedociągnięcia i błędy, co pozwala zorientować się w fałszerstwie. Jednak z uwagi na tempo rozwoju dziedziny AI technologia zostanie dopracowana, a z upływem czasu może stać się narzędziem przestępczym lub sposobem uzyskania przewagi politycznej.

Skandale “deepfakingowe”

  1. Matka cheerleaderki
    Kobieta wykorzystała deepfake do wyrzucenia rywalek swojej córki z drużyny cheerleaderek. Jak donosi https://www.bbc.com/news/technology-56404038  Raffaela Spone
    z Pensylwanii (USA) wysłała trenerowi drużyny cheerleaderek materiały, które przedstawiały członków drużyny Victory Vipers “nagie, pijące i palące”. Zdjęcia zostały zmodyfikowane za pomocą sztucznej inteligencji. Działanie miało na celu pozbycie się rywalek swojej córki.
    Pani Spone została oskarżona o wielokrotne nękanie.
    Oskarżono ją również o wysyłanie obraźliwych wiadomości do drużyny, jej rodziców i właścicieli sali gimnastycznej, używając fałszywych numerów telefonów.
    Policja w Hilltown Township w Bucks Country stwierdziła, że jej córka nie wiedziała o rzekomych incydentach.
  2. Tom Cruise
    W ostatnich latach deepfakes zaczęły zyskiwać na tyle dużą popularność, że powstał konto na TikTok’u poświęcone w całości deepfake’om Toma Cruise’a.
    W filmikach @deeptomcruise https://www.tiktok.com/@deeptomcruise?referer_url=https%3A%2F%2Fwww.creativebloq.com%2F&referer_video_id=6965575763298962693&refer=embed można dostrzec nutkę doliny niesamowitości (określenie opisujące dyskomfort odczuwany przy obserwowaniu obiektów łudząco przypominających człowieka, np. robotów), ale jego mistrzowskie opanowanie głosu i manier aktora oraz wykorzystanie szybko rozwijającej się technologii zaowocowało jednymi z najbardziej przekonujących przykładów deepfake’ów.
    Filmy pokazują Cruise’a w różnych sytuacjach, od codziennych czynności po demonstrację sztuczek magicznych. Opis konta TikTok brzmi : “Parody. Also younger.”
  3. Koreańska prezenterka
    Wiele przykładów deepfake’ów są tylko zabawnymi eksperymentami mającymi na celu sprawdzenie możliwości technologii deep learning. Jednak pojawienie się koreańskiego kanału telewizyjnego MBN może być sygnałem, że deepfakes mogą stać się częścią głównego nurtu mediów. Zaprezentował on widzom własnego prezentera wiadomości Kim Joo-Ha.

    Kanał ostrzegł widzów z wyprzedzeniem, że prezenterka będzie podrobiona, a Kim Joo-Ha nadal pozostaje na swoim stanowisku. MBN zapowiedziało jednak, że zamierza nadal korzystać z tej podróbki w niektórych nagłych wiadomościach. Twórcą tej podróbki była południowokoreańska firma DeepBrainAI, która ogłosiła, że szuka nabywców mediów
    w Chinach i Stanach Zjednoczonych. Działanie to wywołuje obawę, że czytniki wiadomości mogą stać się przestarzałe.

  4. Nancy Pelosi zwolniła tempo
    To nie jest tak naprawdę deepfake, ale przykład tego, dlaczego ich potencjalne nadużycia stały się tak niebezpieczne w polityce. Nancy Pelosi, spikerka Izby Reprezentantów USA, ale nagranie zostało spowolnione o 25%, a wysokość dźwięku zmieniono tak, by sprawiało wrażenie, że mówi niewyraźnie.

    Nagranie zostało opublikowane przez stronę na Facebooku o nazwie Politics Watchdog i zostało szeroko udostępnione, w tym przez byłego burmistrza Nowego Jorku Rudy’ego Giulianiego, który napisał na Twitterze:“What is wrong with Nancy Pelosi? Her speech pattern is bizarre.”
    Facebook początkowo odmówił usunięcia klipu, ale powiedział, że ograniczył jego dystrybucję po tym, jak został uznany za fałszywy. Finalnie post został usunięty. Przypadek ten ilustruje rodzaj nadużyć, związanych z technologią zaprezentowaną w czerwcu przez Uniwersytet Stanforda, która pozwala na edycję dźwięku w filmie w sposób równie łatwy, jak
    w przypadku dokumentu tekstowego.

  5. Zuckerberg mówi szczerze
    W odpowiedzi na odmowę Facebooka usunięcia nagrania wideo z Nancy Pelosi artysta Bill Posters zamieścił w czerwcu na należącym do Facebooka Instagramie filmik, na którym Mark Zuckerberg chwali się, że platforma “posiada” swoich użytkowników.

    Czy Facebook zareagowałby inaczej, gdyby jego własny założyciel był manipulowany? Film był początkowo częścią pracy Posters i Daniela Howe’a Spectre, która została zamówiona na Sheffield Doc Fest, aby zwrócić uwagę na to, jak ludzie mogą być manipulowani przez media społecznościowe. Film został zrealizowany przy użyciu oprogramowania VDR (video dialogue replacement) izraelskiego startupu Canny AI, który promuje go poprzez śpiewanie deepfake z udziałem różnych światowych przywódców.

    Instagram nie usunął filmu Zuckerberga, ale zapowiedział, że

    “potraktuje tę treść w taki sam sposób, w jaki traktujemy wszystkie dezinformacje na Instagramie. Jeśli niezależne firmy sprawdzające fakty oznaczą je jako fałszywe, będziemy je filtrować”

    Osoby zamieszczające film oznaczyły go hashtagiem #deepfake. Pomimo, iż wideo jest dość przekonujące w trybie wyciszenia, głos zdradza, że dobry aktor jest nadal potrzebny do tworzenia wiarygodnych przykładów deepfake’ów. Jednakże biorąc pod uwagę syntezator głosu AI, który został już zaproponowany przez Lyrebird i Adobe VoCo będzie można łatwo dodawać głos do deepfake’ów.

Przeciwdziałanie

Wśród najpopularniejszych filmów typu deepfake są również te szczerzące świadomość na temat tego zjawiska. Jako przykład posłużyć może następujący filmik: https://www.youtube.com/watch?v=EkfnjAeHFAk, zwracający szczególną uwagę na powagę zjawiska. Został on użyty w brytyjskiej kampanii wyborczej i przedstawia Jeremy’ego Corbyna oraz Borisa Johnsona, którzy wzajemnie popierają swoje kandydatury. Kolejnym znanym filmikiem jest materiał Jordana Peele we współpracy z Buzzfeed, ukazujący Barracka Obame ostrzegającego przed tym zjawiskiem: https://www.youtube.com/watch?v=cQ54GDm1eL0&t=2s. Oczywiście, na wspomnianych  multimediach nie widzimy prawdziwych polityków, a raczej działanie sztucznej inteligencji,  mające na celu pokazanie jak łatwo jest wprowadzić publikę w błąd fałszując wizerunek.

W ciągu ostatnich trzech lat, również rządy postanowiły zająć się sprawą deepfake’ów. W 2019 roku Teksas był pierwszym stanem, który zakazał tworzyć tego typu materiałów w celach mających związek z kampaniami wyborczymi. Kolejno Kalifornia wprowadziła podobny zakaz, a pod koniec 2020 roku kongres USA przyjął ustawę która zobowiązuje agencję federalną National Science Foundation do badań nad deepfake’ami.

Zespoły Facebooka oraz Microsoftu inwestują swoje środki w wykrywanie materiałów deepfake. W sierpniu 2019 roku utworzono grupę DFDC (ang. Deepfake Detection Challenge),
a w 2020 roku Facebook poinformował, że materiały stworzone za pomocą technologii deep fake, które mogą spowodować wprowadzenie użytkownika w błąd (z wyjątkiem tych, które mają na celu jedynie żartobliwy czy satyryczny charakter), zostaną usunięte z serwisu.

Jak przeciętny człowiek może wykryć deepfake?

Sieci neuronowe nie są doskonałe. Najłatwiej jest wykryć nieścisłości w ludzkiej twarzy. Szczególną uwagę warto zwrócić na nienaturalnie wyglądające zmarszczki oraz różnice między kolorem ust a resztą skóry. Dodatkowo ciężko jest sztucznej inteligencji oddać naturalne cienie, zarost, ruchy postaci czy też nawet refleksy okularów.

Podsumowanie

Deepfake ma swój udział w dezinformacji, skandalach dyplomatycznych w polityce, panice społecznej, przemocy wobec kobiet, niszczeniu reputacji, wzroście przestępczości i przyczynia się do ogólnie pojętego chaosu. Tempo pracy nad sztuczną inteligencją jest nierównomierne i ciężko jest jednoznacznie zmierzyć postęp. Nawet naukowcy nie zawsze są w stanie nadążyć za rozwojem poszczególnych dziedzin SI, stąd też niepokój związany z tym zagadnieniem.

Według  “The first audio deep synthesis detection challenge” obecnie prowadzone są badania nad wykrywaniem głębokiej syntezy dźwięku. Wykrywanie fałszywych dźwiękowych jest nowym tematem, który został uwzględniony w projekcie ASVspoof 2021. Jednak ostatnie wspólne
zadania nie obejmowały wielu rzeczywistych i trudnych scenariuszy. Pierwsze wyzwanie Audio Deep Synthesis Detection 2022 obejmuje trzy ścieżki: wykrywanie fałszywych dźwięków niskiej jakości (LF), wykrywanie częściowo fałszywych dźwięków (PF) oraz gra w fałszywe dźwięki (FG).
Ścieżka LF koncentruje się na wykrywaniu w pełni i całkowicie fałszywych
wypowiedzi z różnymi szumami świata rzeczywistego. Ścieżka PF ma na celu odróżnienie dźwięku częściowo fałszywego od prawdziwego. Strona
FG jest grą rywalizacyjną, która zawiera dwa zadania: zadanie generowania dźwięku i zadanie wykrywania fałszywych dźwięków.

Pomimo istnienia pozytywnej strony deepfake’ów dostarczającej rozrywki, nie jest ona porównywalna ze szkodami jakie niesie to zjawisko. 

Źródła


Jeden komentarz

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…