Home » AGH 2025/26 » Deepfake wideo jako narzędzie manipulacji politycznej – Czy prawda przetrwa erę syntetycznych treści?

Deepfake wideo jako narzędzie manipulacji politycznej – Czy prawda przetrwa erę syntetycznych treści?

Spread the love

Wrzesień 2023, Słowacja. Na dwa dni przed kluczowymi wyborami parlamentarnymi, w samym środku ciszy wyborczej, do sieci trafia nagranie. Słychać na nim lidera opozycji, Michala Šimečkę, rzekomo planującego fałszerstwo wyborcze. Głos jest identyczny, intonacja naturalna, a treść uderza w najczulszy punkt systemu. Zanim eksperci zdążą dowieść, że to wygenerowany przez AI deepfake audio, materiał rozlewa się po mediach społecznościowych, nieodwracalnie infekując opinię publiczną i wpływając na wynik głosowania. Żyjemy w erze, w której technologia przestała jedynie wspierać komunikację, a zaczęła aktywnie redefiniować pojęcie prawdy obiektywnej. Deepfake, napędzany przez łatwodostępne modele open-source, stał się najgroźniejszym narzędziem manipulacji politycznej, uderzając w sam fundament demokracji. Próby regulowania i oznaczania treści przegrywają z realiami ich rozprzestrzeniania się i ułomnością naszych mechanizmów poznawczych. Niniejszy wpis przygląda się temu, jak takie materiały powstają, jaki mają destrukcyjny wpływ na społeczeństwo oraz jakie rozwiązania – w tym systemowe i kryptograficzne – to obecnie jedyna droga do obrony przed cyfrową dezinformacją (WEB1).


Wstęp: Nowy front wojny informacyjnej

Manipulacja obrazem i dźwiękiem towarzyszy polityce od dekad, od retuszowania zdjęć w czasach stalinowskich po współczesny montaż wyrwanych z kontekstu wypowiedzi. Jednak pojawienie się technologii deepfake (połączenie słów deep learning oraz fake) stanowi wyraźny skok jakościowy, który unieważnia dotychczasowe mechanizmy obronne społeczeństwa. Jak zauważa Luciano Floridi, w dzisiejszej infosferze granica między tym, co naturalne, a tym, co sztuczne, ulega całkowitemu rozmyciu (Floridi, 2014). Postulaty transhumanizmu, które zakładały wzmacnianie ludzkich zdolności poznawczych, zderzyły się z praktyką tworzenia algorytmów trenowanych na ogromnych zbiorach danych, które generują obrazy i nagrania tak wiarygodne dla ludzkiej percepcji, że trudno je odróżnić od autentycznych. Próba technologicznego przekroczenia granic ludzkości skończyła się na zbudowaniu narzędzi idealnych do manipulowania tłumem.

Deepfake wideo przestało być już tylko ciekawostką technologiczną wykorzystywaną w Hollywood czy memach internetowych i stało się narzędziem wykorzystywanym w działaniach o charakterze politycznym i informacyjnym. Wpisuje się w logikę wojny hybrydowej, gdzie kluczowe jest wpływanie na percepcję odbiorców, a nie tylko kontrola terytorium czy zasobów. Problem ma wiele warstw, bo nie sprowadza się do samej technologii, lecz obejmuje także mechanizmy poznawcze, dynamikę społeczną oraz kwestie odpowiedzialności za dane i ich wykorzystanie. W warunkach polaryzacji afektywnej tego typu materiały łatwo znajdują odbiorców, ponieważ odwołują się do emocji i uprzedzeń, które często biorą górę nad weryfikacją informacji. W efekcie fałszywe nagrania nie tylko wprowadzają w błąd, ale też pogłębiają brak zaufania do mediów i instytucji, co dodatkowo utrudnia odróżnienie informacji wiarygodnych od spreparowanych.

Anatomia kłamstwa – Jak powstają polityczne deepfake’i?

Zrozumienie zagrożenia wymaga przyjrzenia się mechanizmom technicznym. U podstaw większości współczesnych deepfake’ów leżą Generatywne Sieci Przeciwstawne (GANs – Generative Adversarial Networks), koncepcja wprowadzona przez Iana Goodfellowa w 2014 roku.

Mechanizm GAN

Generative Adversarial Network (GAN) to architektura uczenia maszynowego zaproponowana przez Ian’a Goodfellowa i współautorów w 2014 roku. Model ten składa się z dwóch sieci neuronowych, które uczą się poprzez wzajemną rywalizację:

  • Generator to sieć, która tworzy nowe dane (np. obrazy twarzy) na podstawie losowego wektora wejściowego. Jego celem jest generowanie próbek jak najbardziej zbliżonych do danych rzeczywistych, tak aby „oszukać” drugą sieć.
  • Dyskryminator pełni rolę „detektywa”. Otrzymuje zarówno dane rzeczywiste, jak i wygenerowane przez generator i próbuje określić, które z nich są prawdziwe, a które sztuczne.

Uczenie GAN można porównać do gry między fałszerzem a detektywem:

  • Generator (fałszerz) tworzy coraz bardziej realistyczne dane.
  • Dyskryminator (detektyw) uczy się coraz lepiej wykrywać fałszerstwa.
  • Każda poprawa jednej strony wymusza rozwój drugiej.

Po wielu iteracjach treningu generator staje się na tyle dobry, że:

  • generowane obrazy są bardzo realistyczne,
  • dyskryminator ma trudność z ich odróżnieniem od danych rzeczywistych,
  • dla ludzkiego oka różnice mogą być praktycznie niezauważalne.

(Goodfellow et al., 2014).

Demokratyzacja technologii

Jeszcze kilka lat temu tworzenie wysokiej jakości deepfake’ów wymagało ogromnej mocy obliczeniowej i specjalistycznej wiedzy. Dziś, dzięki bibliotekom takim jak DeepFaceLab czy modelom typu Stable Diffusion, proces ten stał się dostępny dla niemal każdego użytkownika komputera z wydajną kartą graficzną. Ta demokratyzacja technologii sprawia, że użytkownik może nie tylko stosować techniki jailbreakingu, by obchodzić zabezpieczenia w usługach online, lecz także korzystać z lokalnie uruchamianych modeli typu uncensored, czyli pozbawionych części wbudowanych ograniczeń.

Modele te, poprzez procesy takie jak fine-tuning na surowych danych lub matematyczne usuwanie wektorów odmowy (abliteration), są trwale pozbawione korporacyjnych zabezpieczeń etycznych (tzw. guardrails). W takim ekosystemie możliwe jest masowe produkowanie politycznej dezinformacji bez żadnych ograniczeń programowych. W obliczu modeli uruchamianych offline, scentralizowane systemy kontroli i moderacji stają się całkowicie bezradne.

Wpływ na wybory i instytucje publiczne: Studium przypadku

Oddziaływanie deepfake’ów na procesy demokratyczne można rozpatrywać w dwóch głównych wymiarach: jako bezpośrednią ingerencję w przebieg kampanii wyborczych oraz jako długofalową erozję zaufania do instytucji publicznych i mediów.

Atak bezpośredni: „Październikowa niespodzianka”

Deepfake doskonale wpisuje się w logikę tzw. „październikowej niespodzianki” – zdarzenia pojawiającego się tuż przed wyborami, którego celem jest szybkie i trudne do odwrócenia przesunięcie nastrojów społecznych. Syntetyczne nagrania, które imitują kompromitujące wypowiedzi kandydatów, mogą w krótkim czasie osiągnąć ogromny zasięg, zanim zostaną zweryfikowane. Szczególnie istotne jest to, że w okresie bezpośrednio poprzedzającym głosowanie brakuje już czasu na rzetelną weryfikację i skuteczne skorygowanie fałszywej narracji w przestrzeni publicznej. Nawet jeśli później takie materiały zostaną zdementowane, ich wpływ na percepcję części wyborców może pozostać trwały, szczególnie w grupach o ograniczonym dostępie do rzetelnych źródeł informacji (WEB1).

Erozja instytucji: „Liar’s Dividend”

Najbardziej przebiegłym skutkiem istnienia deepfake’ów nie jest to, że ludzie uwierzą w kłamstwo, ale to, że przestaną wierzyć w prawdę. Zjawisko to Bobby Chesney i Danielle Citron nazwali „Dywidendą kłamcy” (Liar’s Dividend). W świecie, w którym każde wideo może być sfałszowane, polityk przyłapany na prawdziwym skandalu może po prostu stwierdzić: „To deepfake, to manipulacja AI”.

„Paradoksalnie, technologia stworzona do tworzenia fałszywych dowodów, staje się najskuteczniejszą tarczą dla tych, którzy chcą ukryć prawdę. Podważając autentyczność wszystkich nagrań, deepfake niszczy samą koncepcję dowodu wizualnego, na którym opierały się nasze systemy prawne i dziennikarskie przez ostatnie stulecie” (Chesney & Citron, 2019).

Komponent krytyczny – Analiza etyczna i społeczna

Zrozumienie wpływu deepfake’ów wymaga uwzględnienia asymetrii weryfikacji, znanej jako Prawo Brandoliniego (zasada asymetrii bzdur). Mówi ono, że ilość energii potrzebna do obalenia fałszywej informacji jest o rząd wielkości większa niż do jej wyprodukowania. Stworzenie wiarygodnego kłamstwa w dobie lokalnych, zablitrowanych modeli AI stało się niemal darmowe i natychmiastowe, podczas gdy jego weryfikacja pozostaje procesem kosztownym i powolnym. W efekcie kontrowersyjne, silnie nacechowane emocjonalnie materiały zyskują ogromne zasięgi i utrwalają się w świadomości odbiorców znacznie skuteczniej niż późniejsze sprostowania o ich niewiarygodności.

Psychologia potwierdzenia

Nasz aparat poznawczy bezwarunkowo faworyzuje bodźce wizualne, traktując je jako obiektywne dowody (ang. seeing is believing). Kiedy zderzymy tę ewolucyjną podatność ze zjawiskiem błędu konfirmacji (ang. confirmation bias), otrzymujemy idealne środowisko do dystrybucji dezinformacji. Jeśli deepfake uderza w istniejące już uprzedzenia odbiorcy wobec konkretnego polityka czy partii, zamiast analizować wiarygodność materiału, zaczyna on aktywnie racjonalizować fałsz, by utrzymać spójność dotychczasowego światopoglądu. Skuteczny syntetyczny materiał wcale nie musi być perfekcyjny technicznie – wystarczy, że dostarcza tłumom dokładnie tej „prawdy”, w którą i tak chcą wierzyć.

Polemika: Czy cenzura jest rozwiązaniem?

Często podnoszonym argumentem jest konieczność rygorystycznej moderacji treści przez platformy społecznościowe. W praktyce jednak takie podejście zajmuje się skutkami, a nie przyczynami i szybko rodzi kolejne problemy etyczne. Przekazanie prywatnym firmom i ich algorytmom, często obciążonym własnymi błędami (tzw. algorithmic bias), decydowania o tym, co jest prawdą, a co nie, staje się realnym zagrożeniem dla wolności słowa.

Z perspektywy systemowej walka z dezinformacją może też łatwo stać się pretekstem do rozbudowy narzędzi kontroli i inwigilacji. W imię ochrony przed deepfake’ami możliwe jest blokowanie materiałów o charakterze krytycznym, dziennikarstwa śledczego czy nawet satyry politycznej, która może zostać błędnie zakwalifikowana jako fałszywa. Poleganie wyłącznie na scentralizowanej moderacji oznacza w praktyce oddanie zbyt dużej władzy nad przepływem informacji. Prawdziwą przyczyną sukcesu deepfake’ów nie jest sama dostępność tej technologii, lecz przepaść między stopniem skomplikowania algorytmów a krytycznymi kompetencjami poznawczymi współczesnego społeczeństwa.

Rozwiązanie: Systemowa architektura weryfikacji i oznaczania

Aby skutecznie przeciwdziałać manipulacji politycznej, musimy odejść od reaktywnego wykrywania deepfake’ów na rzecz proaktywnego potwierdzania pochodzenia danych (ang. provenance). Głównym elementem tej strategii jest standard C2PA (Coalition for Content Provenance and Authenticity).

Koncepcja: Cyfrowy Paszport Treści

Standard C2PA zakłada, że certyfikowane urządzenie (kamera, smartfon) podpisuje materiał kryptograficznie w momencie zapisu. W teorii tworzy to „cyfrowy paszport” pliku.

  • Manifest Metadanych: Zaszyfrowany rekord zawierający czas, lokalizację i parametry techniczne urządzenia.

  • Łańcuch Dowodowy: Każda edycja (np. montaż) musi zostać dopisana do manifestu. Użycie narzędzi generatywnych automatycznie przerywa łańcuch autentyczności.

(WEB 2)

Implementacja techniczna

Poniżej znajduje się koncepcyjny fragment kodu w języku Python, pokazujący podstawową logikę sprawdzania podpisu przed publikacją materiału na platformie informacyjnej. W założeniu taki mechanizm miałby odrzucać materiały o potencjalnie fałszywym lub niezweryfikowanym pochodzeniu, w tym treści o charakterze politycznym:

import c2pa_api # Przykładowa biblioteka standardu C2PA
import hashlib

def verify_political_content(video_path):
    """
    Funkcja weryfikująca autentyczność materiału wideo
    zgodnie ze standardem C2PA.
    """
    try:
        # Pobranie manifestu z pliku wideo
        manifest = c2pa_api.get_active_manifest(video_path)
        
        if not manifest:
            return "OSTRZEŻENIE: Brak metadanych pochodzenia. Materiał niezweryfikowany."
        
        # Sprawdzenie podpisu kryptograficznego producenta (np. stacji TV)
        is_valid = manifest.verify_signature()
        
        # Sprawdzenie czy w historii edycji występują narzędzia AI
        edits = manifest.get_editing_history()
        ai_detected = any("generative_ai" in tool for tool in edits)
        
        if is_valid and not ai_detected:
            return "MATERIAŁ AUTENTYCZNY: Potwierdzono źródło i brak manipulacji AI."
        elif ai_detected:
            return "UWAGA: Wykryto użycie generatywnej sztucznej inteligencji!"
        else:
            return "ALARM: Podpis cyfrowy uszkodzony lub nieprawidłowy!"
            
    except Exception as e:
        return f"Błąd weryfikacji: {str(e)}"

# Przykład użycia:
# result = verify_political_content("wywiad_premiera.mp4")
# print(result)

Krytyczna słabość

Przedstawiona implementacja pokazuje istotne ograniczenia standardów opartych na metadanych. Zabezpieczenia kryptograficzne w ramach C2PA działają wyłącznie na poziomie cyfrowego kontenera, a nie samej treści wizualnej. W praktyce prowadzi to do dwóch głównych problemów, które znacząco osłabiają skuteczność takiej weryfikacji w kontekście zaawansowanej dezinformacji.

Utrata metadanych i ograniczona skuteczność weryfikacji:
Najsłabszym punktem całego systemu jest moment, w którym skrypt sprawdza, czy plik ma w ogóle dołączony manifest (linijka if not manifest:). Całe to zabezpieczenie C2PA to w rzeczywistości kruchy, cyfrowy paszport, który można zniszczyć w ułamku sekundy. Wystarczy jedna komenda w darmowym programie (np. ffmpeg), żeby trwale wyczyścić metadane i zostawić czysty plik. Wtedy skrypt, zamiast wykryć manipulację, natrafia na pustkę i wyrzuca jedynie łagodne „OSTRZEŻENIE”, kompletnie ignorując fakt, że ma do czynienia z AI.

Można próbować obejść to ograniczenie, podnosząc próg wejścia dla fałszerzy. Zamiast opierać weryfikację na metadanych, można zastosować sprawdzanie integralności pliku poprzez kryptograficzny skrót (hash) całego materiału wideo. W tym scenariuszu każde nagranie trafiałoby do niezmiennej, rozproszonej bazy danych (np. opartej na blockchainie), prowadzonej przez zaufane instytucje informacyjne. Takie rozwiązanie utrudnia manipulację plikiem, ponieważ każda zmiana danych, nawet minimalna, powoduje zmianę wartości hasha i skutkuje odrzuceniem materiału przez system.

Nadal jednak jest to rozwiązanie tylko częściowe. Nawet najdoskonalsza kryptografia potwierdza jedynie to, że plik nie został zmieniony od momentu wysłania, a nie to, że jego treść jest prawdziwa. System chroni jedynie spójność danych, nie weryfikuje ich zgodności z rzeczywistością.

Ograniczenie wynikające z procesu rejestracji (tzw. „dziura analogowa”):

Nawet zaawansowane zabezpieczenia kryptograficzne działają wyłącznie na poziomie danych cyfrowych, a nie samej treści. Oznacza to, że materiał może zostać wygenerowany bez żadnych metadanych, następnie wyświetlony na ekranie o wysokiej rozdzielczości, a potem ponownie zarejestrowany kamerą certyfikowanego urządzenia zgodnego z C2PA. W takiej sytuacji system weryfikacji może poprawnie potwierdzić, że plik powstał w wyniku fizycznej rejestracji obrazu i nie był modyfikowany cyfrowo po nagraniu. W efekcie standardy takie jak C2PA mogą być użyteczne w ograniczaniu masowej, amatorskiej dezinformacji, ale mają istotne ograniczenia w przypadku bardziej zaawansowanych, celowych działań, w których kluczowe jest obejście samego procesu rejestracji treści.

Tabela: Porównanie metod walki z deepfake’ami

Metoda obrony Główne zalety Wady i krytyczne podatności Realna skuteczność w polityce
Detekcja AI Nie wymaga modyfikacji procesu tworzenia i dystrybucji treści. Wieczny wyścig zbrojeń. Algorytmy detekcji zawsze będą o krok za najnowszymi modelami generatywnymi. Wysokie ryzyko cenzurowania prawdy (błędy false positive). Niska. Sprawdza się tylko wobec starszych, prymitywnych fałszerstw.
Znaki wodne (Watermarking) Teoretycznie łatwe do wymuszenia na komercyjnych dostawcach API (np. Midjourney, OpenAI). Całkowicie bezużyteczne wobec modeli o otwartych wagach. Nawet w modelach komercyjnych znaki łatwo zniszczyć kompresją wideo lub zmianą kadru. Znikoma. Wystarczy użyć lokalnego modelu offline, by ominąć system w 100%.
C2PA (Kryptografia metadanych) Silne fundamenty kryptograficzne; wsparcie największych gigantów technologicznych i wydawców.

Istotnym ograniczeniem jest podatność na atak fizyczny (tzw. „dziura analogowa”). Dodatkowo istnieje powszechne ryzyko przypadkowego lub celowego usunięcia metadanych w wyniku standardowych operacji na plikach, takich jak konwersja lub ponowne kodowanie wideo.

Średnia. Filtruje treści tworzone amatorsko i zautomatyzowane boty, ale nie radzi sobie z bardziej zaawansowanymi atakami.
Media Literacy (Edukacja) Jedyne rozwiązanie odporne na ewolucję samej technologii i wyścig zbrojeń algorytmów.

Proces liczony w dekadach i wymagający szerokiej zmiany praktyk informacyjnych. Szczególnie trudny do wdrożenia w warunkach silnej polaryzacji afektywnej i funkcjonowania społeczeństwa w zamkniętych bańkach informacyjnych.

Najwyższa (długofalowo). Może poprawiać ogólny poziom przejrzystości informacji, ale w sytuacjach kryzysowych, np. przy publikacji materiału na 48 godzin przed wyborami, jej skuteczność jest praktycznie zerowa.

Przyszłość i regulacje prawne

Europejski AI Act (WEB3), nakładający obowiązek oznaczania treści syntetycznych, w 2026 roku pozostaje dowodem na technologiczną naiwność prawodawców. Prawo to skutecznie wiąże ręce legalnym korporacjom i oficjalnym sztabom wyborczym, ale całkowicie mija się z realiami asymetrycznej wojny informacyjnej.

Dla zdecentralizowanych farm trolli, obcych służb wywiadowczych i użytkowników lokalnych modeli o otwartych wagach, unijne rozporządzenia i groźby kar finansowych są bezwartościowe. Postulaty wprowadzania przedwyborczych „okresów ochronnych” czy prawnych zakazów emisji syntetycznych reklam mają ograniczoną skuteczność. Skuteczny polityczny deepfake nie pojawia się jako oficjalny materiał kampanii wyborczej, lecz jako wiralowa publikacja rozpowszechniana przez liczne anonimowe konta w serwisach społecznościowych. W takim modelu dystrybucji kluczowe znaczenie ma szybkość i skala rozprzestrzeniania, a nie formalny status nadawcy. Opieranie ochrony procesów demokratycznych wyłącznie na regulacjach prawnych zakłada, że podmioty odpowiedzialne za dezinformację będą działały w ramach tych samych ograniczeń prawnych, co państwo. W praktyce, w zdecentralizowanym środowisku cyfrowym, skuteczność tradycyjnych narzędzi legislacyjnych jest istotnie ograniczona.

Konkluzja

Deepfake to nie tylko problem techniczny, to test dojrzałości dla naszych demokracji. Jeśli nie nauczymy się zarządzać zaufaniem w świecie syntetycznym, ryzykujemy powrót do epoki, w której siła przekazu zależy od tego, kto głośniej i sprawniej kłamie, a nie od siły argumentów.

Rozwiązania techniczne, takie jak standard C2PA, są niezbędne, ale nie wystarczające. Skuteczna ochrona przed dezinformacją musi opierać się na kompetencjach odbiorców. Musimy przejść od naiwnego „widzę, więc wierzę” do krytycznego „widzę, więc weryfikuję”. Tylko połączenie rygorystycznych standardów etycznych danych, zaawansowanej kryptografii oraz świadomego społeczeństwa pozwoli nam zachować integralność procesów politycznych w XXI wieku.


Literatura

  1. Chesney, R., & Citron, D. K. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107, 1753.

  2. Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.

  3. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., … & Bengio, Y. (2014). Generative adversarial nets. Advances in neural information processing systems, 27.

  4. Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

(WEB1) Radio Free Europe. (2023). Moldova’s Sandu Warns Of Deepfake Campaign Ahead Of Elections. Dostępne online: https://www.rferl.org/a/moldova-sandu-deepfake-campaign-elections/32681234.html

(WEB2)The Coalition for Content Provenance and Authenticity. Dostępne online: https://c2pa.org/ 

(WEB3) European Commission. (2024). EU AI Act: First regulation on artificial intelligence. Dostępne online: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai


Leave a comment