Home » AGH 2024/25 » Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 944
  • 6 397
  • 42 859
  • 14 214
  • 11

Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej

Spread the love

Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej

W erze wszechobecnych smartfonów i mediów społecznościowych, intymność stała się nie tylko łatwiejsza do uchwycenia, ale i niebezpiecznie podatna na wykorzystanie. Zjawisko znane potocznie jako „revenge porn”, czyli publikowanie prywatnych, intymnych zdjęć lub filmów bez zgody osoby na nich przedstawionej, jest brutalną formą cyfrowej przemocy, która niszczy życie, kariery i poczucie bezpieczeństwa ofiar. Dodatkowo, wraz z coraz bardziej zaawansowanymi i szeroko dostępnymi narzędziami sztucznej inteligencji, pojawiają się kolejne, niespotykane wcześniej zagrożenia, zaś samo ryzyko padnięcia ofiarą tego przestępstwa jest większe niż kiedykolwiek. Ten wpis zagłębia się w istotę problemu, jego historię i kontekst społeczny. Analizujemy również istniejące i potencjalne mechanizmy – zarówno instytucjonalne, jak i technologiczne – mające na celu identyfikację, ograniczanie oraz przeciwdziałanie tej formie nadużycia, a także wskazujemy, jak realnie wspierać osoby dotknięte tą traumą.

 

Czym jest revenge porn? Definicja, Terminologia i Kontekst

What to Do If You're a Victim of Revenge Porn | Lifehacker

Mianem revenge porn określa się akt rozpowszechniania materiałów intymnych, takich jak zdjęcia, czy nagrania z udziałem osób, które nie wyraziły na to rozpowszechnianie zgody. Termin ten, choć powszechnie używany w mediach i dyskursie publicznym, jest coraz częściej krytykowany jako mylący i niedokładny. Po pierwsze, sugeruje on, że główną motywacją sprawcy jest zemsta, zazwyczaj w kontekście zakończonego związku romantycznego. Chociaż jest to częsty scenariusz, publikowanie intymnych materiałów bez zgody może wynikać również z innych pobudek, takich jak chęć kontroli, upokorzenia, szantażu, uzyskania korzyści finansowych, a nawet dla rozrywki czy zdobycia statusu w określonych grupach online. Po drugie, określenie „pornografia” jest problematyczne, ponieważ materiały te zazwyczaj nie zostały stworzone w celach komercyjnych ani za obopólną zgodą jako treści pornograficzne. Co więcej, użycie tego słowa może niesłusznie stygmatyzować ofiarę, sugerując jej udział w tworzeniu pornografii, podczas gdy kluczowym elementem jest tu właśnie brak zgody na rozpowszechnianie.

Z tych powodów coraz częściej stosuje się bardziej precyzyjny i neutralny termin NCII (Non-Consensual Intimate Imagery), czyli materiały intymne udostępniane bez zgody. Termin ten lepiej oddaje istotę problemu: naruszenie prywatności i autonomii seksualnej poprzez dystrybucję prywatnych, intymnych zdjęć lub filmów bez jednoznacznej zgody osoby na nich widocznej. Zjawisko to obejmuje szeroki zakres działań: od publikacji na stronach internetowych, przez udostępnianie w mediach społecznościowych, na forach, w komunikatorach internetowych, aż po groźby publikacji w celu wymuszenia określonych zachowań (szantaż).

Kluczowe elementy definiujące to zjawisko to:

  1. Istnienie materiału o charakterze intymnym: Mogą to być zdjęcia, filmy ukazujące nagość, częściową nagość lub czynności seksualne. Materiał ten mógł powstać za zgodą osoby przedstawionej (np. w ramach intymnej relacji), ale zgoda ta nie obejmowała jego rozpowszechniania.

  2. Brak zgody na rozpowszechnianie: Osoba przedstawiona na materiale nie wyraziła zgody na jego publikację lub udostępnianie osobom trzecim. Zgoda na wykonanie zdjęcia czy nagrania nie jest tożsama ze zgodą na jego dystrybucję.

  3. Rozpowszechnianie: Materiał jest udostępniany publicznie lub prywatnie szerszemu gronu odbiorców za pośrednictwem technologii cyfrowych (internet, telefony komórkowe itp.).

  4. Szkoda dla ofiary: Publikacja tych materiałów niemal zawsze wiąże się z poważnymi konsekwencjami dla osoby pokrzywdzonej, takimi jak szkody psychiczne (lęk, depresja, myśli samobójcze), społeczne (stygmatyzacja, utrata reputacji), zawodowe czy edukacyjne.

Ważne jest również zrozumienie, że ofiarami padają nie tylko osoby dorosłe. Coraz częściej problem dotyka również młodzież, która udostępnia sobie intymne zdjęcia w ramach tzw. sextingu, nie zdając sobie sprawy z ryzyka, że materiały te mogą zostać później wykorzystane przeciwko nim.

Geneza – „Beaver Hunt” i pierwsze serwisy internetowe

Przed erą internetu

Choć zjawisko NCII (Non-Consensual Intimate Imagery) kojarzone jest głównie z erą cyfrową, jego korzenie sięgają wcześniejszych praktyk medialnych. Już w latach 80. XX wieku magazyn Hustler wprowadził comiesięczną rubrykę zatytułowaną „Beaver Hunt”, w której publikowano nadesłane przez czytelników zdjęcia nagich kobiet. Fotografie te często zawierały dodatkowe informacje o przedstawionych osobach, takie jak ich hobby, fantazje seksualne, a czasem nawet imię. Nie wszystkie kobiety, których zdjęcia znalazły się w „Beaver Hunt”, przesłały je samodzielnie; kilka z nich pozwało magazyn za publikację ich wizerunków bez pozwolenia lub bez weryfikacji informacji zawartych w sfałszowanych formularzach zgody.

Rozpowszechnienie i komercjalizacja

Dwie dekady później, wraz z rozwojem internetu, włoski badacz Sergio Messina zidentyfikował nowy gatunek treści znany jako „realcore pornography”. Polegał on na dystrybucji zdjęć i filmów byłych partnerek za pośrednictwem grup dyskusyjnych Usenet. W 2008 roku agregator amatorskich treści pornograficznych XTube zaczął otrzymywać skargi dotyczące publikowania materiałów pornograficznych bez zgody osób na nich przedstawionych. W tym okresie niektóre strony internetowe zaczęły nawet inscenizować konsensualną pornografię w taki sposób, aby przypominała ona NCII, jednocześnie hostując „autentyczne” treści tego typu, nadsyłane przez użytkowników.

Zjawisko NCII zaczęło zdobywać międzynarodową uwagę mediów, gdy Hunter Moore uruchomił w 2010 roku stronę internetową IsAnyoneUp. Witryna ta zawierała obrazy nadsyłane przez użytkowników i była jedną z pierwszych, która przyjęła model zapoczątkowany przez „Beaver Hunt”: IsAnyoneUp często publikowało informacje identyfikujące osoby na zdjęciach, takie jak ich imiona i nazwiska, pracodawców, adresy oraz linki do profili w mediach społecznościowych. Trzeba tutaj wspomnieć o postaci Charlotte Laws, aktywistki, która jako pierwsza kategorycznie krytykowała i przeciwstawiła się Moore’owi i jako jedna z pierwszych osób zaczęła publicznie wspierać ofiary zjawiska revenge porn. W konsekwencji swoich działań, spotkała ją ostra reakcja ze strony entuzjastów Huntera, musiała się mierzyć m.in. ze stalkingiem oraz groźbami śmierci.

Reakcja korporacji

W 2015 roku byliśmy świadkami istotnej zmiany w polityce największych graczy technologicznych wobec problemu NCII. W odpowiedzi na rosnącą presję społeczną i krytykę dotyczącą niewystarczającej ochrony użytkowników, kluczowe platformy społecznościowe, takie jak Reddit i Twitter, zaktualizowały swoje regulaminy, wprost zakazując publikowania takich treści i zobowiązując się do ich usuwania. Niedługo potem giganci rynku wyszukiwarek, Google i Microsoft, również zareagowali, oferując ofiarom możliwość zgłaszania i usuwania linków do krzywdzących materiałów ze swoich wyników wyszukiwania. Ta fala działań, choć często postrzegana jako reaktywna i spóźniona, stanowiła ważny sygnał: korporacje technologiczne zaczęły, przynajmniej częściowo, uznawać swoją rolę i odpowiedzialność w ograniczaniu rozprzestrzeniania się szkodliwych treści i łagodzeniu skutków cyfrowej przemocy dla ofiar. Był to niezbędny krok w kierunku ograniczenia widoczności NCII w sieci, choć jednocześnie pokazał, jak bardzo walka z tym zjawiskiem zależy od dobrej woli i działań komercyjnych podmiotów dominujących w cyfrowym ekosystemie.

Sztuczna inteligencja i deepfake – nowe zagrożenie

The Dangers of AI Art and Deepfakes | Office of Information Security | Washington University in St. Louis
Technologia deepfake pozwala na m.in. realistyczne odwzorowanie dowolnej twarzy u obcej osoby

Rozwój technologii sztucznej inteligencji, a w szczególności deepfake, otworzył nowy, niepokojący rozdział w problematyce revenge porn. Początkowo technologia ta zyskała rozgłos przez tworzenie fałszywych, pornograficznych filmów i zdjęć znanych kobiet, takich jak Gal Gadot, Scarlett Johansson czy Emma Watson, które były publikowane na platformach takich jak Reddit już w 2017 roku. Szczególnie głośnym echem odbiła się sprawa Taylor Swift na początku 2024 roku, kiedy to wygenerowane przez AI, jednoznacznie seksualne obrazy piosenkarki zostały masowo rozpowszechnione na platformie X (dawniej Twitter) i innych serwisach. Incydent ten, którego źródła powiązano z grupami na Telegramie i 4chan wykorzystującymi narzędzia AI (jak Microsoft Designer, obchodząc jego filtry), wywołał falę oburzenia, aktywizację fanów do „zagłuszania” fałszywych treści oraz zdecydowane reakcje polityczne, w tym wezwania do federalnej legislacji w USA i wprowadzenie projektu ustawy ułatwiającej ofiarom dochodzenie roszczeń.

Problem deepfake NCII nie ogranicza się jednak do celebrytów. Ofiarami padają również osoby mniej znane, jak indyjska dziennikarka śledcza Rana Ayyub, która w 2018 roku stała się celem kampanii nienawiści obejmującej groźby gwałtu i śmierci oraz rozpowszechnianie sfabrykowanego filmu pornograficznego z jej udziałem jako formę odwetu za jej pracę krytykującą rząd. Ayyub publicznie opisała długotrwałe skutki psychologiczne i społeczne tego doświadczenia. Niepokojący jest również fakt, że technologia ta staje się coraz bardziej dostępna, co ilustruje kontrowersja wokół streamera Atrioca, który przypadkowo ujawnił posiadanie materiałów deepfake z wizerunkami innych streamerek, przyznając się później do płacenia za treści pornograficzne generowane przez AI. Te przypadki pokazują, jak deepfake może być używany jako narzędzie nękania, dyskredytacji i wywierania presji, potęgując szkody wyrządzane ofiarom NCII.

Skalę problemu i łatwość dostępu do narzędzi tworzących deepfake NCII obrazuje skandal, który wybuchł w Korei Południowej w 2024 roku. Ujawniono masowe tworzenie i udostępnianie na Telegramie fałszywych, intymnych zdjęć nauczycielek i uczennic, często wraz z ich danymi osobowymi. Sprawcami byli głównie nastolatkowie, a jedna z grup na Telegramie zgromadziła setki tysięcy członków. Skala zjawiska, dotykająca ponad 200 szkół, doprowadziła do publicznych protestów i uznania problemu za „narodowy kryzys”. W odpowiedzi południowokoreańscy parlamentarzyści zaostrzyli prawo, kryminalizując nie tylko tworzenie i dystrybucję, ale także posiadanie i oglądanie takich materiałów. Szacunki mówiące o milionach użytkowników miesięcznie tzw. botów „nudify” na Telegramie pod koniec 2024 roku pokazują, jak powszechne i zautomatyzowane stało się tworzenie tego typu szkodliwych treści, co stanowi ogromne wyzwanie dla prawa, edukacji i bezpieczeństwa w sieci.

Status prawny

Globalnie, prace nad prawnym uregulowaniem zjawiska NCII postępowały opornie. Główne przeszkody obejmowały niedocenianie powagi problemu, obawy o naruszenie wolności słowa, mylne przekonanie o adekwatności istniejących przepisów oraz historyczne marginalizowanie kwestii dotykających przede wszystkim kobiety. Kluczowym wyzwaniem dla ustawodawców na całym świecie pozostaje stworzenie precyzyjnych regulacji, które skutecznie chronią ofiary, nie ograniczając jednocześnie nadmiernie fundamentalnych swobód obywatelskich.

Globalne prawodawstwo dotyczące NCII rozwijało się powoli, napotykając przeszkody takie jak obawy o wolność słowa, przekonanie o wystarczalności istniejących przepisów oraz historycznie mniejsze zainteresowanie kwestiami dotykającymi głównie kobiety. W Ameryce Północnej, Kanada już w 2014 roku skryminalizowała „niekonsensualną dystrybucję intymnych zdjęć” wykonanych w warunkach uzasadnionego oczekiwania prywatności. Stany Zjednoczone, do czerwca 2024 roku, wprowadziły przepisy przeciwko NCII w 49 stanach, choć ich zakres jest zróżnicowany. Przełomem na poziomie federalnym było wejście w życie w październiku 2022 roku 15 U.S.C. § 6851, umożliwiającego ofiarom wytaczanie procesów cywilnych przeciwko sprawcom, z możliwością uzyskania odszkodowania i nakazów sądowych, a także zapewniającego anonimowość powodom. Co więcej, w maju 2025 roku podpisano ustawę TAKE IT DOWN Act, która federalnie kryminalizuje publikację deepfake’ów generowanych przez AI bez zgody osoby przedstawionej i nakłada na media społecznościowe obowiązek tworzenia procedur ich usuwania. Mimo tych postępów, problemem pozostaje niechęć ofiar do zgłaszania przestępstw oraz kwestie dowodowe.

Europie wiele krajów opiera się na szerokich ustawach o ochronie prywatności, ale pojawiają się też bardziej szczegółowe regulacje. Francja kryminalizuje świadome naruszenie intymnego życia prywatnego poprzez „przesyłanie zdjęcia osoby znajdującej się w miejscu prywatnym, bez zgody tej osoby”. Niemiecki Sąd Najwyższy w 2014 roku orzekł, że intymne zdjęcia partnerów powinny być usuwane na ich żądanie. Włochy w 2019 roku wprowadziły ustawę karzącą (więzieniem i grzywną) rozpowszechnianie materiałów o treściach jednoznacznie seksualnych, które miały pozostać prywatne, bez zgody przedstawionych osób. Irlandia, ustawą z 2020 roku, wprowadziła dwa odrębne przestępstwa: dystrybucję intymnych zdjęć bez zgody z zamiarem skrzywdzenia ofiary (surowsza kara) oraz bez takiego zamiaru (łagodniejsza kara), podkreślając, że zgoda na zrobienie zdjęcia nie oznacza zgody na jego rozpowszechnianie. Wielka Brytania (Anglia i Walia) ustawą Criminal Justice and Courts Act 2015 penalizuje ujawnianie prywatnych zdjęć i filmów o charakterze seksualnym bez zgody osoby przedstawionej i z zamiarem wywołania u niej niepokoju, choć pojawiały się problemy z retroaktywnym stosowaniem prawa.

W Azji również podjęto kroki legislacyjne. Filipiny już od 2009 roku uznają za przestępstwo kopiowanie, reprodukowanie, udostępnianie lub pokazywanie w internecie materiałów o charakterze jednoznacznie seksualnym bez pisemnej zgody osoby przedstawionej. Japonia w 2014 roku uchwaliła ustawę kryminalizującą przekazywanie „prywatnego obrazu seksualnego innej osoby” bez jej zgody. W Korei Południowej dystrybucja NCII jest karalna (więzieniem lub grzywną), a nielegalne filmowanie (tzw. „molka”) zagrożone jest jeszcze surowszymi karami, choć problem ten, wraz z niskim odsetkiem skazań, doprowadził do masowych protestów i żądań zaostrzenia prawa, w tym kar za samo posiadanie takich materiałów. Singapur w 2019 roku (z mocą od 2020) poprzez Criminal Law Reform Act skryminalizował NCII, przewidując kary więzienia (w tym obowiązkowe dla ofiar poniżej 14. roku życia), grzywny, a nawet chłostę. Warto również wspomnieć o Australii, która wypracowała wielotorowy system prawny obejmujący prawo cywilne (precedensowa sprawa Wilson v Ferguson), prawo karne (przepisy na poziomie stanowym i federalnym kryminalizujące udostępnianie NCII) oraz system kar cywilnych egzekwowany przez eSafety Commissioner, umożliwiający zgłaszanie i usuwanie takich treści.

Zapobieganie i walka ze zjawiskiem

 StopNCII.org i hashowanie treści

Strona StopNCII.org pozwala na skuteczne usunięcie intymnych materiałów z internetu

W obliczu skali problemu NCII, obok działań prawnych i społecznych, kluczową rolę odgrywają innowacje technologiczne. Jednym z czołowych przykładów takiego podejścia jest StopNCII.org – bezpłatne narzędzie stworzone z myślą o wsparciu ofiar tej formy przemocy cyfrowej. Inicjatywa ta, prowadzona przez Revenge Porn Helpline (RPH), która jest częścią organizacji charytatywnej SWGfL, opiera się na proaktywnym mechanizmie zapobiegania rozprzestrzenianiu się szkodliwych treści.

Podstawą działania StopNCII.org jest technologia hashowania obrazów. Proces ten polega na wykorzystaniu specjalnego algorytmu do przypisania unikalnej wartości (hasha) każdemu intymnemu zdjęciu lub filmowi, które ofiara chce chronić. Hash ten działa jak „cyfrowy odcisk palca” – każda duplikowana kopia danego obrazu będzie miała dokładnie tę samą wartość hasha. Co istotne dla prywatności użytkownika, samo zdjęcie lub film nigdy nie opuszcza urządzenia ofiary i nie jest przesyłane do StopNCII.org ani żadnej innej firmy. Jedynie wygenerowany na urządzeniu hash jest udostępniany platformie, która następnie przekazuje go współpracującym firmom technologicznym (np. platformom społecznościowym, dostawcom usług hostingowych). Firmy te, po otrzymaniu hasha, mogą przeszukiwać swoje systemy w poszukiwaniu treści o identycznym cyfrowym odcisku palca. Jeśli zostanie znalezione dopasowanie, a treść narusza politykę danej platformy dotyczącą NCII, jest ona usuwana lub jej dalsze rozpowszechnianie jest blokowane.

StopNCII.org kładzie duży nacisk na ochronę prywatności osób zgłaszających. Jak wspomniano, oryginalne pliki graficzne pozostają na urządzeniu użytkownika, a platforma zbiera jedynie minimalną ilość danych niezbędnych do funkcjonowania usługi. Cały proces jest zaprojektowany tak, aby osoba dotknięta NCII mogła podjąć działania prewencyjne lub interwencyjne, zanim jeszcze obrazy trafią do szerokiej dystrybucji, lub gdy już się tam znalazły.

Narzędzie jest przeznaczone dla osób, które są przedstawione na intymnym zdjęciu lub filmie, miały ukończone 18 lat w momencie jego wykonania, są obecnie pełnoletnie i nadal posiadają kopię materiału. Obrazy lub filmy muszą przedstawiać nagość, częściową nagość lub akty seksualne. Po pomyślnym utworzeniu zgłoszenia, użytkownik otrzymuje numer sprawy oraz PIN, które pozwalają na śledzenie postępów oraz ewentualne wycofanie zgody na udział w programie. Jak podaje organizacja, Revenge Porn Helpline, dzięki temu podejściu i współpracy z partnerami, osiągnęła ponad 90% skuteczności w usuwaniu zgłoszonych, niekonsensualnych materiałów intymnych z internetu, co przełożyło się na usunięcie ponad 200 000 takich treści.

Mechanizm działania StopNCII.org stanowi ważny krok w kierunku wzmocnienia pozycji ofiar NCII, dając im konkretne narzędzie do walki z rozprzestrzenianiem naruszających ich prywatność materiałów. Jest to przykład, jak technologia, często będąca narzędziem w rękach sprawców, może również służyć ochronie i wsparciu osób dotkniętych tą formą przemocy.

Publiczny Indeks Odpowiedzialności Platform

Publiczny Indeks Odpowiedzialności Platform to koncepcja stworzenia transparentnego rankingu oceniającego platformy internetowe (media społecznościowe, serwisy hostingowe itp.) pod kątem ich efektywności w zwalczaniu NCII. Ranking opierałby się na mierzalnych kryteriach, takich jak szybkość reakcji na zgłoszenia NCII, przejrzystość polityk dotyczących tych treści oraz proaktywność w ich wykrywaniu i usuwaniu. Publicznie dostępny indeks miałby na celu wywieranie presji na firmy technologiczne, aby podnosiły standardy ochrony użytkowników, a jednocześnie dostarczałby użytkownikom informacji pozwalających na bardziej świadomy wybór usług online.

Mechanizm „Cyfrowego Sejfu Zgody”

Mechanizm „Cyfrowego Sejfu Zgody” to propozycja technologicznego narzędzia prewencyjnego, które umożliwiałoby użytkownikom bezpieczne przechowywanie i współdzielenie materiałów intymnych w oparciu o jasno zdefiniowaną i zarządzalną zgodę. Treści umieszczone w „sejfie” byłyby szyfrowane i powiązane z cyfrowymi metadanymi określającymi warunki zgody (np. kto ma dostęp, na jak długo, jakie działania są dozwolone). Naruszenie tych warunków lub odwołanie zgody przez którąkolwiek ze stron mogłoby inicjować procedury ochronne, np. aktywację hashy tych materiałów w systemach blokujących ich rozpowszechnianie (jak StopNCII.org). Celem jest wzmocnienie roli świadomej zgody i utrudnienie niekonsensualnego wykorzystania treści, nawet jeśli pierwotnie powstały za obopólną zgodą.

Źródła


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w…

  2. Tak, początek artykułu to świadoma ironia nawiązująca do propagandowej mowy (swoją drogą, ciekawe, czy ChatGPT zdawał sobie z tego sprawę,…

  3. Dzięki za uwagę! Sama też chętnie zobaczyłabym konkretne metryki. Natomiast: 1. Generalnie nie są publicznie udostępniane w całości, szczególnie jeśli…