„Nudify” i generowania nagich wizerunków osób – identyfikacja, etyczne granice użytkowania i sposoby regulacji
🧠 Czym jest „nudify” i jak działa?
Zjawisko „nudify” polega na wykorzystaniu narzędzi sztucznej inteligencji – takich jak DALL·E, Stable Diffusion, DeepNude, a także setki anonimowych aplikacji mobilnych – do generowania syntetycznych, nagich wizerunków osób na podstawie ich zdjęć w ubraniu. Algorytmy te, bazując na milionach próbek obrazów ludzkiego ciała, „uzupełniają” brakujące fragmenty i tworzą realistycznie wyglądające obrazy nagości, które nigdy nie miały miejsca w rzeczywistości.Choć wiele z tych technologii (np. DALL·E od OpenAI) oficjalnie blokuje generowanie treści pornograficznych, coraz więcej otwartych modeli pozwala na ich tzw. fine-tuning, co umożliwia obejście filtrów bezpieczeństwa.
Szacuje się, że 99% seksualnie jednoznacznych deepfake’ów dostępnych online dotyczy kobiet i dziewcząt. Ponadto, chociaż posiadanie treści seksualnych generowanych przez sztuczną inteligencję z udziałem dzieci jest nielegalne, modele sztucznej inteligencji, które tworzą te obrazy, nie są nielegalne.
Warto też wspomnieć, że Jednolity System Antyplagiatowy (JSA), który zresztą jest używany w APD USOS, został wzbogacony o funkcję sprawdzania,…