Home » 2022 » Deep fake – działanie, wykrywanie

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 62

Deep fake – działanie, wykrywanie

Spread the love

Człowiek o wielu twarzach, maski z Mission Impossible, zmiana swojego wizerunku na zawołanie — technologie z filmów, technologie przyszłości. Ale czy na pewno? Nazwa deepfake, czyli zbitka angielskich słów deep (głębokość) oraz fake (fałsz) to technologia pozwalająca na zmianę swojej twarzy, ale też głosu, otoczenia i wielu innych. Ograniczeniem jest, że nie chodzi tutaj o zmianę w sensie fizycznym, ale cyfrowym.

Czym jest deepfake

Deepfake to zbiór rozwiązań pozwalających na zmianę różnych aspektów materiałów cyfrowych w taki sposób, że efekty są niemal nierozróżnialne od rzeczywistości. Materiałami, o których mowa są zdjęcia oraz nagrania. Aspektami ulegającymi zmianie może być cokolwiek — twarz osoby na zdjęciu, słowa wypowiadane na nagraniu i tak dalej. 

Rozwiązania deepfake oparte są na technologii sieci neuronowych i nie są proste do zrobienia. Ich przygotowanie zwykle wymaga dużego wcześniejszego nakładu pracy w spreparowaniu ogromnych zbiorów danych będących podstawą późniejszego uczenia.

Wyniki osiągane w ten sposób potrafią bez problemu zmylić ludzkie oko. Nawet zaawansowane narzędzia sztucznej inteligencji przygotowywane specjalnie w celu wykrywania deepfake’ów nie zawsze potrafią rozróżnić prawdę od fikcji. Ale o tym opowiemy później. Ważne jest, żeby technologie tego typu używać rozważnie, ponieważ użycie ich ze złośliwymi lub destrukcyjnymi zamiarami może potencjalnie przynieść bardzo duże szkody w różnych sferach życia publicznego, jak i prywatnego.

Jak się tworzy deepfake

Aby dobrze wytłumaczyć, w jaki sposób tworzone są deepfake’i, należy zacząć od pojęcia sieci neuronowej, a dokładniej od neuronu. Neuron to pojedyncza “komórka”, realizująca jedną, stosunkowo prostą operację matematyczną. Jest on podstawowym “budulcem” sieci neuronowej, której idea polega na połączeniu grup neuronów w warstwy, a następnie przekazywanie wyników obliczeń neuronów z jednej warstwy do kolejnej. Obszar sieci neuronowych jest tematem obszernym, my zajmiemy się tylko jednym podtypem, wykorzystywanym w technologiach deepfake. Podstawą powstania pierwszych deepfake był rozwój technologii GAN (z angielskiego Generative Adversarial Network, czyli w dosłownym tłumaczeniu “Generatywne Sieci Współzawodniczące”). Brzmi strasznie, ale nie ma co się negatywnie nastawiać. Podstawą działania architektury GAN jest istnienie dwóch przeciwstawnych sieci neuronowych: generatora i dyskryminatora. Obydwie sieci posiadają wspólny zbiór danych, na podstawie którego uczą się wykonywać różne czynności. Generator tworzy nowe materiały pasujące do otrzymanego zbioru danych. Dyskryminator stara się odróżnić dane prawdziwe od danych fałszywych (czyli te ze zbioru danych od tych wygenerowanych przez generator). Obie sieci ze sobą współdziałają, oddziaływując na siebie nawzajem. Wraz z rozwojem jednej z sieci rozwija się też druga. Uczenie się można uznać za skończone, kiedy dyskryminator nie jest już w stanie odróżnić danych wygenerowanych od danych autentycznych. Podstawą uczenia sieci neuronowych, jak i w ogólności uczenia maszynowego, są różnego rodzaju dane. Zbiorem danych wykorzystywanym podczas uczenia sieci neuronowych może być niemalże cokolwiek. Zdjęcia zwierząt, budynków, samochodów — a w przypadku deepfake twarze ludzi lub ich głosy.

Zagrożenia

Możliwość przywłaszczenia sobie czyjegoś wizerunku można wykorzystać na wiele sposobów. Sam wizerunek, szczególnie w wersji cyfrowej, nie wystarczy do “klasycznego” wykorzystania kradzieży osobowości, czyli wyłudzenia pieniędzy, ale można zaszkodzić w inny, potencjalnie nawet gorszy sposób. Najczęstszymi ofiarami tego typu działań są kobiety. A jednymi z pierwszych pokrzywdzonych za pomocą tego typu narzędzi były trzy celebrytki – Gal Gadot, Maisie Williams i Taylor Swift. Zapytasz zapewne czytelniku, w jaki sposób zostały pokrzywdzone. Czy utraciły majątki, straciły role, zostały w jakiś sposób zastąpione? Otóż nie. Zostało pokrzywdzone to, co zostało im “ukradzione”, czyli ich wizerunek. Pierwszym zastosowaniem technologii deepfake był przemysł pornograficzny. Wizerunki znanych osób były komputerowo umieszczane zamiast twarzy aktorek w filmach pornograficznych. Taki sposób wykorzystania tej technologii jest aktualnie dominujący. Według raportu Deeptrace (o którym później), 96% filmów “deepfejkowych” to filmy o tle pornograficznym. Filmy te są oczywiście bez wiedzy i zgody poszkodowanych. Ludzie wykorzystujący tę technologię poszli nawet o krok dalej i stworzyli aplikację DeepNude — oprogramowanie umożliwiające “usuwanie” ubrań z fotografii kobiet. Choć po serii protestów i różnego rodzaju działań, aplikacja została wycofana, to zgodnie z powiedzeniem “z internetu nic kompletnie nie znika”, wersje tej aplikacji nadal krążą po sieci. Choć negatywne wykorzystanie tej technologii w przeważającej większości znajduje się w przemyśle pornograficznym, w innych dziedzinach życia również znajduje zastosowanie, z potencjalnie gorszymi skutkami. Politycy oraz osoby mające znaczący wpływ, potrafią jedną wypowiedzią, jednym tweetem, wywołać lawinę konsekwencji, od gwałtownych zmian na rynkach inwestycyjnych, po narastanie napięć w konfliktach międzynarodowych. Jest to idealna szansa dla przestępców, aby “na żądanie” wywołać tego typu sytuację. I choć może być to szybko zdementowane przez osoby, których wizerunek ktoś “ukradł”, to wywołane zawirowania (umiejętnie wykorzystane) potrafią zapewnić złodziejowi znaczny przypływ pieniędzy. A skoro już jesteśmy w obszarze przestępczości – kolejnym groźnym zastosowaniem deepfake jest fabrykowanie nagrań np. z monitoringu. Filmy tego typu często stanowią mocny dowód przeciwko sprawcy. A co, gdyby ktoś potrafił zmienić nagranie i wrobić niewinną osobę? Jest to realne zagrożenie, które nie powinno zostać pominięte w przyszłych procesach legislacyjnych.

Przykłady deepfake

Wejście: krótki filmik prezentujący osobę wypowiadającą się
Możliwości: osoba wypowiada inne słowa. Jej ruch ust i mimika pasuje do wypowiadanych słów. Można dowolnie zmieniać emocje które przejawia.

 

Wejście: film osoby wypowiadającej się
Możliwości: lip sync – podmiana słów wypowiadanych przez osobę z zachowaniem mimiki, gestów etc.

 

Wejście: zdjęcie osoby
Możliwości: zmiana cech charakterystycznych osoby – jej wieku, fryzury, zarostu, mimiki etc.

 

Wejście: zdjęcie lub film osoby
Możliwości: Zamiana tła za osobą, wraz z dostosowaniem kolorów i oświetlenia

 

Wejście: zdjęcie osoby
Możliwości: Przedstawienie osoby w sposób kreskówkowy

Wykorzystania pozytywne

Przybranie czyjejś twarzy można wykorzystać również do wielu pozytywnych rzeczy. Robert Downey Junior, Hugh Jackman, Ryan Reynolds — to aktorzy, którzy są i będą ikonami, jeśli chodzi o wyobrażenie sobie wyglądu fikcyjnej postaci. A co gdyby te twarze mogły pojawić się również w kolejnych częściach odpowiednich filmów czy amatorskich filmikach. Albo po prostu w wersji animowanej, gdyby postać miała twarz taką, jaką pamiętamy ją z dużego ekranu? Dzięki technologiom deepfake jest to możliwe. Również przeniesienie twarzy aktora do postaci w grze komputerowej jest znacznie łatwiejsze, dzięki tej technologii. Bardziej przyziemnym wykorzystaniem okazuje się zmiana tła podczas rozmów przez internet. Piękne góry, słoneczna plaża czy nawet kosmos — możesz się pojawić w każdym z tych miejsc. A przynajmniej może tak wyglądać, że tam jesteś. Albo wracając, do oryginalnego wykorzystania — stań się kotem, psem lub niezidentyfikowaną żelką – możliwości jest mnóstwo. Nie można jednak zapomnieć o bardziej “poważnym” zastosowaniu tego narzędzia. Za pomocą technologii deepfake, możliwe jest “postarzanie”, czyli generowanie, jak może wyglądać osoba po kilku latach. Może to znacznie pomóc w poszukiwaniach zaginionych osób.

Rozpoznawanie i przeciwdziałanie

Ze względu na duże zagrożenie ze strony technologii deepfake, powstało wiele różnego rodzaju instytucji, których działaniami są zarówno rozpoznawanie zpreparowanych filmów, jak również edukacja, jak się przed nimi chronić. Pierwszą z nich jest amerykańska agencja DARPA. Jest to organizacja działająca w ramach Departamentu Obrony Stanów Zjednoczonych. Posiada ona dwa główne projekty — SemaFor, w którym zajmują się wykrywaniem zmanipulowanych treści oraz MediFor, w którym zajmują się działaniami prewencyjnymi. Jej głównym zadaniem jest walka z szeroko pojętą przestępczością wywoływaną przez użycie technologii deepfake, głównie dezinformacje, manipulacje, jak również naruszanie zasad demokracji. Kolejną organizacją jest grupa DFDC, która zrzesza specjalistów z firm takich jak Microsoft, Meta (facebook) czy Amazon, oraz z uniwersytetów takich jak MIT, Oksford, Berkeley, Maryland. Ich głównym zadaniem jest stworzenie narzędzi do wykrywania filmów typu deepfake. Zaangażowana jest również agencja Reuters, która nieodpłatnie udostępniła materiały dla dziennikarzy, dzięki którym mogą się oni zapoznać z tą technologią oraz jej wykrywaniem. Główną ideą takiego działania jest ograniczenie dezinformacji oraz wprowadzania mediów w błąd, poprzez dostarczanie nieprawdziwych źródeł informacji. Warto również zwrócić uwagę na wcześniej wspomnianą firmę DeepTrace Technologies, która, choć nie jest to jej główny obszar działań, prowadzi różnego rodzaju badania również w obszarze deepfake. Również serwisy społecznościowe biorą czynny udział w prewencji negatywnych skutków technologii deepfake. Facebook poinformował, że będzie usuwał treści pochodzące poprzez wykorzystanie deepfake, które powodują dezinformację, za wyjątkiem treści satyrycznych lub żartobliwych. Również Tweeter ogłosił, że będzie usuwał treści zmanipulowane za pomocą deepfake, które wprowadzają dezinformację.

Bibliografia

https://en.wikipedia.org/wiki/Deepfake
Two Minute Papers – Youtube channel
https://davidyao.me/projects/text2vid/
https://arxiv.org/abs/2008.10010
https://arxiv.org/abs/2103.17249
https://augmentedperception.github.io/total_relighting/
https://yuval-alaluf.github.io/restyle-encoder/


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…