Home » Socjologia UJ 2025/26 » „Sztuczna inteligencja, która nie pyta o zgodę: Nudify w praktyce”

„Sztuczna inteligencja, która nie pyta o zgodę: Nudify w praktyce”

Spread the love

Widzialność jest pułapką, pisał Michel Foucault, przedstawiając społeczne mechanizmy nadzoru. W świecie, w którym do dyspozycji jest sztuczna inteligencja, nie trzeba już patrzeć na osobę i jej prawdziwe ciało, aby móc posługiwać się pułapką kontroli. Można je sobie po prostu wygenerować.

W 2025 na grupę kobiet z Minnesoty padł blady strach, a zaraz zanim poczucie wszechogarniającej bezradności. Kobiety, zwykle użytkowniczki social mediów, odkryły, że ich własne twarze pobrane ze zdjęć, które umieściły na swoich profilach, zostały wykorzystane do stworzenia treści pornograficznych w technologii deepfake (Vanian, 2025). Uśmiechnięte kadry z rodzinnych wakacji czy spotkań z przyjaciółmi publikowane na Facebooku po to, aby podzielić się radosnymi chwilami ze znajomymi, zostały połączone przez algorytm z dostępnymi w internecie fotografiami ciał innych osób, tworząc realistyczne wyglądające materiały przedstawiające aktywność seksualną. Nie było prawdziwego aktu, sceny ani zgody, ale to, co realne, to lęk o siebie i swoich bliskich, wstyd i poczucie utraty kontroli, które odczuły kobiety po dokonaniu szokującego odkrycia. Fałszywa, generowana przez AI treść wywołuje rzeczywiste skutki: psychiczne, społeczne i prawne.

Choć technologia deepfake jest wykorzystywana w różnego rodzaju manipulacjach politycznych, próbach oszustw finansowych, czy też po prostu w celu wygenerowania parodii bieżących światowych i lokalnych wydarzeń, jej najczęstszym oraz najgłębiej zinternalizowanym wykorzystaniem jest tworzenie treści pornograficznych bez zgody – i wiedzy – osób poszkodowanych tą cyfrową formą przemocy seksualnej. Dane opublikowane przez United Nations Women w 2024 roku są bardzo wyraźne: jeśli chodzi o zdjęcia z wykorzystaniem AI, 90-95 % wszystkich deepfake’ów dostępnych online to treści pornograficzne wygenerowane bez zgody na wykorzystanie wizerunku osób na nich widniejących, przy czym około 90% takich zdjęć przedstawia kobiety. W przypadku dostępnych w internecie filmów deepfake analiza wykazała natomiast, że aż 98% z nich to generowane filmy pornograficzne, a 99% z nich wykorzystuje wizerunki kobiet (The Guardian, 2025).

Skala zjawiska jest więc porażająca oraz w przeważającej mierze ukierunkowana na nadużycia wobec kobiet, stanowiąc potężną, nową formę przemocy seksualnej oraz znaczące wzmocnienie form istniejących i znanych wcześniej. Wzmocnienie, ponieważ, jak wskazuje feministyczna aktywistka Laura Bates, podział na obszar offline i online jest w dzisiejszym, ucyfrowionym świecie iluzją. To, co dzieje się teoretycznie w internecie, w praktyce tylko się w nim zaczyna, ponieważ przenika momentalnie do sfery, którą nazywamy światem realnym, wpływa na nią świat oraz prowadzi do eskalacji przemocy. Narzędzia cyfrowe pomagają w przekraczaniu tego podziału, ułatwiając na przykład sprawcom stalkingu dotarcie do ofiary, a gdy w grę wchodzą narzędzia typu „nudify”, przed sprawcami takiej przemocy rozkłada się pełen wachlarz możliwości.

Jedną z form nadużyć jest doxxing, czyli ujawnianie przez sprawcę prywatnych/wrażliwych informacji dotyczących ofiary, w dzisiejszym świecie wzmocniony oraz ułatwiony przez wykorzystanie narzędzi opartych na sztucznej inteligencji. „Cel” doxxingu może być łatwo namierzony za pomocą NLP, które mogą pomóc w wyszukiwaniu treści prywatnych lub wrażliwych w postach zamieszczonych przez kobiety (UN Women, 2025). Nie chodzi tylko o lokalizację ofiar, sprawcy posuwają się znacznie dalej: AI jest wykorzystywana także do grożenia im za pomocą spersonalizowanych, konstruowanych na podstawie ich aktywności w mediach społecznościowych wiadomości. Tym sposobem zdjęcie w social media, komentarze, polubione posty, sama obecność i aktywność wręcz momentalnie, nie przestają być dzisiaj „tylko” online. Nie ma wyraźnej granicy, technologicznej czy społecznej, między naszymi ekranami a naszym światem, co jeszcze wyraźniej odczuwamy odkąd pojawiła się generatywna AI.

Nowoczesne narzędzia cyfrowe pozwalają na catfishing przy użyciu skonstruowanych tak, aby były jak najbardziej realistyczne, botów, prowadzących konwersacje i poprzez nie zdobywające zaufanie użytkownika po drugiej stronie. W ten sposób sprawcy takiej przemocy mogą zdobyć materiały, które posłużą później do szantażowania ofiar. Przemoc z wykorzystaniem nowych technologii może powodować wykluczenie społeczne, ostracyzm, skutki takie, jak utrata pracy lub wydalenie z placówki edukacyjnej. Wszystkie „internetowe” praktyki potrafią wychodzić daleko poza internet, który nie jest już miejscem, z którego wylogowujemy się i wchodzimy do „realnego” świata.

Czy istnieje więc wyraźna granica pomiędzy aktem przemocy a cyfrowym aktem przemocy? Sytuacja nie musi wydarzać się w przestrzeni „realnej”, aby ślady, które pozostawia, były realne.

 

Technologia nudify:  jak to działa, dlaczego jest takie proste?

Czy w ostatnim czasie zacząłeś wątpić we wszystko, co zobaczyłeś w sieci? Nie jesteś sam. Internet, który przez lata traktowaliśmy jako przestrzeń dokumentowania rzeczywistości, dziś coraz częściej staje się miejscem, gdzie prawdę trudno oddzielić od generowanych komputerowo iluzji. Materiały, które jeszcze niedawno uznalibyśmy za oczywiste i autentyczne — jak rzekomo myte przez ludzi wieloryby czy koty pojawiające się z pistoletami przed czyimiś domami — dziś budzą podejrzenia, bo doskonale wpisują się w stylistykę produkcji opartych na sztucznej inteligencji. Zaczynamy kwestionować nie tylko sensacyjne nagrania, ale nawet zwykłe, pozornie niewinne treści, zastanawiając się, czy to, co widzimy, jest zapisem rzeczywistego zdarzenia czy tylko kolejną wytworem AI. W tym pejzażu cyfrowego zamętu rodzi się pytanie: jak funkcjonować w świecie, w którym nie możemy już bezwarunkowo ufać własnym oczom?

Przykłady filmów wygenerowanych przez AI:

Urządzenia cyfrowe i internet zasadniczo zmieniły sposób, w jaki funkcjonujemy, jednak wraz z rozwojem technologii pojawiły się także ich ciemniejsze strony. Multimedia, dzięki swojej łatwości rozpowszechniania i modyfikowania, od dawna ujawniają potencjał do nadużyć, szczególnie wobec grup najbardziej narażonych (Di Silvestro & Iurissevich, 2024). Mimo że problem nieuprawnionego udostępniania intymnych materiałów pozostaje poważnym wyzwaniem, dziś pojawia się jego nowa odsłona związana z wykorzystaniem sztucznej inteligencji.

Dynamiczny rozwój narzędzi AI, zaskakujący zarówno dla użytkowników, jak i samych twórców sprawił, że technologia ta może być nie tylko wsparciem w pracy, nauce czy porządkowaniu informacji, lecz także narzędziem wykorzystywanym w sposób nieetyczny. Jednym z najbardziej problematycznych zjawisk stało się generowanie treści pornograficznych przy użyciu techniki deepfake. Obejmuje ono tworzenie materiałów wizualnych, w których sztuczna inteligencja zastępuje twarz lub całe ciało osoby w istniejących scenach o charakterze seksualnym, przez co powstaje realistyczna, lecz fałszywa pornografia, tworzona bez wiedzy i zgody danej osoby.

Szczególnie dotkliwą i coraz częściej spotykaną formą takiego nadużycia jest tzw. „nudify”. W przeciwieństwie do deepfake, który konstruuje całe fałszywe sceny pornograficzne, nudify polega na przerabianiu pojedynczych zdjęć — zazwyczaj portretowych lub codziennych — tak, aby przedstawiały osobę jako nagą (Golla, 2025). Dzięki temu narzędzia te są łatwiej dostępne i prostsze w użyciu, co dodatkowo zwiększa skalę zjawiska i potencjalne szkody dla ofiar.

(Źródło obrazka: https://theriverpaper.wordpress.com/2012/04/13/vault-of-expression-censorship-of-nude-art/)

Technologia jako narzędzie reprodukcji relacji władzy

Asymetria płci w sprawcach i ofiarach

Badania dotyczące przemocy cyfrowej, w tym deepfake pornography i manipulacji obrazem, konsekwentnie wskazują, że:

  • mężczyźni częściej pełnią rolę sprawców lub użytkowników narzędzi służących seksualnej manipulacji,

  • kobiety znacząco częściej znajdują się w pozycji ofiar.

(Źródło: Henry, N., & Powell, A. (2018). Sexual Violence in the Digital Age: The Scope and Limits of Criminal Law. Social & Legal Studies.)

Zjawisko nudify wpisuje się w ten wzorzec: większość narzędzi jest projektowana, reklamowana i używana z myślą o „rozbieraniu” kobiet. W ten sposób technologia nie znosi dotychczasowych relacji dominacji, lecz je wzmacnia, oferując nowe sposoby kontroli i seksualnego uprzedmiotowienia.

Technologia pogłębia nierówności poprzez skalę i anonimowość

Tradycyjne formy przemocy seksualnej były ograniczone fizycznie i społecznie. Nowe narzędzia AI:

  • umożliwiają masowe, błyskawiczne tworzenie manipulacji,

  • pozwalają na anonimowe działanie, co obniża barierę wejścia w przemocowe praktyki,

  • mogą przerabiać wizerunki kobiet, które nie publikują żadnych intymnych zdjęć.

(Źródło: Chesney, R., & Citron, D. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review.)

Ta skalowalność nudify poszerza spektrum kontroli nad kobietami: nawet ich codzienne, publiczne zdjęcia z mediów społecznościowych stają się podatne na seksualizację.

Zjawisko nudify nie jest jedynie kolejnym technologicznym trendem, lecz narzędziem wzmacniającym istniejące relacje władzy oparte na płci, w których sprawcami są najczęściej mężczyźni, a ofiarami w przeważającej mierze kobiety. Technologia ta nie tylko odwzorowuje, ale i pogłębia społeczne nierówności, oferując nowe formy kontroli, uprzedmiotowienia i przemocy. Co szczególnie niepokojące, z zagrożeniem tym mierzą się nie tylko dorosłe kobiety, ale także dziewczynki i młode osoby, których zdjęcia — często pobierane z mediów społecznościowych — mogą zostać wykorzystane do tworzenia fałszywych wizerunków nagości. Otwiera to przestrzeń dla poważnych form przemocy seksualnej wobec nieletnich, potęgując skalę i konsekwencje tego zjawiska.

Bezradność prawa

Ramy prawne i luki w ochronie przed Nudify

Choć tworzenie i rozpowszechnianie treści pornograficznych bez zgody osoby przedstawionej jest teoretycznie zakazane w wielu systemach prawnych, praktyka wykazuje poważne ograniczenia w skutecznej ochronie ofiar nudify.

Brak narzędzi do szybkiej reakcji

Obecne regulacje prawne często nie przewidują mechanizmów umożliwiających natychmiastowe usuwanie fałszywych materiałów generowanych przez AI. Procedury są czasochłonne, a treści rozprzestrzeniają się w internecie w ciągu minut, co sprawia, że reakcja prawna jest zwykle spóźniona.

Brak jednoznacznej penalizacji nowych form cyfrowej przemocy

Zjawisko nudify mieści się w obszarze tzw. image-based sexual abuse, który nie zawsze jest wprost uregulowany w prawie karnym. W wielu jurysdykcjach nie istnieje odrębny przepis penalizujący tworzenie fałszywych nagich wizerunków bez zgody, a stosowane przepisy, np. o zniesławieniu lub naruszeniu prywatności, nie w pełni odpowiadają specyfice AI i deepfake.

Trudności ofiar w dochodzeniu sprawiedliwości

Ofiary często napotykają bariery formalne i techniczne: anonimowość sprawców, rozproszenie treści w różnych serwisach i krajach, czy brak kompetencji technicznych do udokumentowania manipulacji AI. To sprawia, że skuteczne ściganie sprawców jest trudne, a odpowiedzialność sprawców bywa iluzoryczna.

(źródło: Citron, D. K. (2014). Cyber Civil Rights. Boston University Law Review)

 

Jednak ostatnie wydarzenia wskazują na pewien przełom w reagowaniu na problem niechcianych treści generowanych przez AI. Równolegle pojawiają się inicjatywy legislacyjne: w Danii wprowadzono prawa autorskie do własnego wizerunku, w Wielkiej Brytanii zakazano tworzenia realistycznych deepfake’ów, a kontrowersyjna ustawa Take It Down Act, podpisana w maju przez prezydenta USA Donalda Trumpa, zobowiązuje firmy technologiczne do szybkiego usuwania niechcianych materiałów.

W praktyce firmy technologiczne również podejmują działania prawne – Microsoft zidentyfikował twórców deepfake’ów celebrytów, a prokurator miejski San Francisco pozwał 16 serwisów oferujących generowanie nieautoryzowanych zdjęć.

(źródło:Zinkiewicz, M. (2025). AI rozbiera kobiety. Biznes wart miliony zbudowany na krzywdzie. https://innpoland.pl/214079,ai-rozbiera-kobiety-biznes-wart-miliony-zbudowany-na-krzywdzie)

Jednak wszystkie te działania budzą pytania o skuteczność i realne znaczenie regulacji. Pozwy i blokady często mają charakter symboliczny i obejmują wyłącznie wybrane przypadki, nie rozwiązując systemowego problemu łatwej dostępności narzędzi typu nudify. Ustawy takie jak Take It Down Act mogą w teorii wymuszać szybkie reagowanie, ale wciąż pozostają trudne do egzekwowania w skali globalnej, zwłaszcza wobec anonimowych sprawców i rozproszonej treści w internecie. W rezultacie wiele ofiar wciąż stoi wobec bariery formalnej i technicznej, a same regulacje w dużej mierze odzwierciedlają intencje legislatorów i firm, a nie realną ochronę użytkowników.

Case study – Meta

Zjawisko nudify wzbudza coraz większe obawy, dlatego platformy społecznościowe starają się wprowadzać mechanizmy ochronne. Meta, właściciel Facebooka i Instagrama, od dawna ma w swoich regulaminach zakaz publikowania i promowania materiałów intymnych bez zgody osoby przedstawionej. Ponad rok temu firma zaktualizowała swoje zasady, aby jednoznacznie wykluczyć promowanie aplikacji typu nudify lub podobnych usług. W praktyce oznacza to:

  • usuwanie reklam, stron na Facebooku i kont na Instagramie promujących takie narzędzia,
  •  blokowanie linków do witryn je hostujących oraz ograniczanie wyników wyszukiwania haseł takich jak „nudify”, „undress” czy „delete clothing”, aby nie pojawiały się w serwisach Meta.

Meta podjęła też kroki prawne przeciwko Joy Timeline HK Limited, twórcy jednej z aplikacji typu nudify. Choć z pozoru może to wyglądać jak zdecydowana reakcja, pojawia się pytanie, czy to rzeczywiste działanie w obronie użytkowników, czy raczej symboliczny gest mający pokazać, że firma „coś robi”. 

Należy jednak pamiętać, że powyższe informacje pochodzą bezpośrednio od Meta (Meta, 2025), co może wpływać na ich obiektywność i ocenę rzeczywistej skuteczności podejmowanych działań.

Krytycy wskazują, że ograniczenia w promowaniu aplikacji i blokowanie linków to działania reaktywne i selektywne, często wprowadzane dopiero po nagłośnieniu sprawy przez media. Skala zjawiska oraz łatwość dostępu do takich narzędzi pokazują, że pojedyncze pozwy i blokady nie rozwiązują systemowego problemu, a wiele użytkowniczek i użytkowników nadal narażonych jest na cyfrową przemoc seksualną.

 

Co dalej? Edukacja jako kluczowy element prewencji

Kultura zgody cyfrowej
Nauczanie o znaczeniu zgody nie powinno ograniczać się do relacji offline. W ramach edukacji cyfrowej należy:

  • wyjaśniać, że wizerunek osoby w sieci należy do niej i nie może być wykorzystywany bez zgody,
  • uczyć, jak prosić o zgodę na publikację materiałów innych osób,
  • promować postawę szacunku wobec prywatności i autonomii cyfrowej.

Umiejętności praktyczne
Edukacja powinna dostarczać konkretnych narzędzi i procedur ochronnych, takich jak:

  • kontrola ustawień prywatności w mediach społecznościowych,
  • identyfikacja podejrzanych aplikacji i linków,
  • szybkie zgłaszanie nieautoryzowanych treści,
  • wiedza o możliwościach prawnych w przypadku stania się ofiarą cyfrowej przemocy.

Edukacja rodziców i opiekunów
W przypadku dzieci i młodzieży kluczowe jest również szkolenie dorosłych w zakresie zagrożeń cyfrowych, aby mogli:

  • rozmawiać z dziećmi o bezpieczeństwie w sieci,
  • wprowadzać zasady odpowiedzialnego udostępniania treści,
  • monitorować potencjalne ryzyka bez naruszania prywatności dziecka.

Programy systemowe i kampanie społeczne
Skuteczna edukacja wymaga wsparcia instytucjonalnego:

  • wprowadzania programów szkolnych o bezpieczeństwie cyfrowym i zgodzie online,
  • kampanii społecznych pokazujących realne konsekwencje cyfrowej przemocy seksualnej,
  • współpracy z platformami cyfrowymi w zakresie tworzenia materiałów edukacyjnych i procedur szybkiego reagowania.

Podsumowanie

Choć edukacja i świadomość zagrożeń cyfrowych są ważne, same w sobie nie wystarczą, by skutecznie przeciwdziałać zjawisku nudify. Ofiary mogą znać ryzyka i stosować zabezpieczenia, ale nie mają kontroli nad sprawcami ani nad skalą rozpowszechniania materiałów w internecie. Dlatego konieczne jest podejście systemowe, które koncentruje się na walce z napastnikami, egzekwowaniu prawa, ograniczaniu dostępu do narzędzi umożliwiających nadużycia oraz wprowadzaniu mechanizmów proaktywnej ochrony przez platformy cyfrowe.

Zjawisko nudify można również rozpatrywać w kontekście teorii Pierre’a Bourdieu dotyczącej przemocy symbolicznej (Bourdieu, 2001). Tak jak w przypadku dominacji społecznej, w której normy i praktyki kulturowe utrwalają nierówności, cyfrowa przemoc seksualna wykorzystuje technologie do utrwalenia asymetrii władzy – sprawcy korzystają z narzędzi AI, by uprzedmiotowić i kontrolować kobiety i dzieci, podczas gdy ofiary pozostają w pozycji biernej. Zrozumienie tej perspektywy pokazuje, że walka z nudify wymaga nie tylko działań edukacyjnych, lecz przede wszystkim zmiany struktur i mechanizmów władzy, które umożliwiają sprawcom nadużycia.

Bibliografia:

  1. Bourdieu, P. (2001). Przemoc symboliczna. PWN.
  2. Chesney, R., & Citron, D. K. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107(6), 1753–1819.
  3. Citron, D. K. (2014). Cyber civil rights. Boston University Law Review, 94(1), 1–75.
  4. Di Silvestro, L., & Iurissevich, C (2024).Contemporary pornography: deepfake as a form of abuse. EPSIR. https://epsir.net/index.php/epsir/article/view/370/1587
  5. Golla, M. (2025). Kradną wizerunki w internecie, by je rozbierać. Zarabiają miliony dolarów. https://www.onet.pl/turystyka/dalekowswiatpl/kradna-wizerunki-w-internecie-by-je-rozbierac-zarabiaja-miliony-dolarow/tl7d00m,30bc1058
  6. Henry, N., & Powell, A. (2018). Sexual violence in the digital age: The scope and limits of criminal law. Social & Legal Studies, 27(4), 1–22.
  7. Meta. (2025, June). Taking action against Nudify apps. Meta. https://about.fb.com/news/2025/06/taking-action-against-nudify-apps/
  8. UN Women. (2025). AI‑powered online abuse: How AI is amplifying violence against women and what can stop it. UN Women. https://www.unwomen.org/en/articles/faqs/ai-powered-online-abuse-how-ai-is-amplifying-violence-against-women-and-what-can-stop-it
  9. The Guardian. (2025). One in four unconcerned by sexual deepfakes created without consent, survey finds. The Guardian. https://www.theguardian.com/technology/2025/nov/24/one-in-four-unconcerned-by-sexual-deepfakes-created-without-consent-survey-finds
  10. Vanian, J. (2025). How a ‘nudify’ site turned a group of friends into key figures in a fight against AI‑generated porn. CNBC. https://www.cnbc.com/2025/09/27/nudify-ai-generated-deepfake-fbi.html
  11. Zinkiewicz, M. (2025). AI rozbiera kobiety. Biznes wart miliony zbudowany na krzywdzie. https://innpoland.pl/214079,ai-rozbiera-kobiety-biznes-wart-miliony-zbudowany-na-krzywdzie

Leave a comment