Cyfrowa nekromancja w polskim radiu
Dnia 22.10.2024 słuchacze Off Radio Kraków mieli przyjemność posłuchać wywiadu z wybitną polską poetką na temat literackiej Nagrody Nobla 2024. Nie byłoby w tym nic dziwnego, gdyby nie fakt, że dziennikarka nie istnieje, a respondentka nie żyje już od ponad dekady. (więcej…)
Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej
Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej
W erze wszechobecnych smartfonów i mediów społecznościowych, intymność stała się nie tylko łatwiejsza do uchwycenia, ale i niebezpiecznie podatna na wykorzystanie. Zjawisko znane potocznie jako „revenge porn”, czyli publikowanie prywatnych, intymnych zdjęć lub filmów bez zgody osoby na nich przedstawionej, jest brutalną formą cyfrowej przemocy, która niszczy życie, kariery i poczucie bezpieczeństwa ofiar. Dodatkowo, wraz z coraz bardziej zaawansowanymi i szeroko dostępnymi narzędziami sztucznej inteligencji, pojawiają się kolejne, niespotykane wcześniej zagrożenia, zaś samo ryzyko padnięcia ofiarą tego przestępstwa jest większe niż kiedykolwiek. Ten wpis zagłębia się w istotę problemu, jego historię i kontekst społeczny. Analizujemy również istniejące i potencjalne mechanizmy – zarówno instytucjonalne, jak i technologiczne – mające na celu identyfikację, ograniczanie oraz przeciwdziałanie tej formie nadużycia, a także wskazujemy, jak realnie wspierać osoby dotknięte tą traumą.
Identyfikacja i oznaczanie grafiki generowanej przez AI – od znaków wodnych po zaawansowane algorytmy głębokiego uczenia.
Czy to jeszcze człowiek, czy już maszyna? Po co oznaczać obrazy generowane przez AI i jak działa ich wykrywanie?
W dobie generatywnej sztucznej inteligencji granica między grafiką tworzoną przez człowieka a obrazem wygenerowanym przez algorytmy coraz bardziej się zaciera. W odpowiedzi na to wyzwanie powstaje wiele technologii mających na celu oznaczanie i wykrywanie treści syntetycznych. Dlaczego to takie ważne? Bo chodzi o ochronę praw autorskich, walkę z dezinformacją i budowanie zaufania do cyfrowych treści.
Dlaczego oznaczanie obrazów AI jest potrzebne?
-
Ochrona przed wykorzystaniem do treningu bez zgody
Twórcy nie chcą, by ich prace były wykorzystywane do trenowania AI bez ich wiedzy. Oznaczenia pomagają zidentyfikować pochodzenie grafiki i chronić oryginalność dzieła.
-
Przeciwdziałanie manipulacjom
Obrazy mogą być przerabiane i wykorzystywane do dezinformacji, np. w deepfake’ach czy fałszywych wiadomościach. Informacja o ich sztucznym pochodzeniu zmniejsza ryzyko nadużyć.
-
Oznaczanie i określanie obrazów wygenerowanych przez AI
Wprowadzenie jednoznacznych oznaczeń (np. znaków wodnych) oraz technologii detekcji pozwala odbiorcom rozpoznać treści stworzone przez sztuczną inteligencję i podejmować świadome decyzje jako odbiorcy.
Revenge porn – co zrobić krok po kroku? Wykorzystanie AI do ograniczenia dalszego rozpowszechniania materiałów.
Wprowadzenie
Revenge porn, czyli nieautoryzowane rozpowszechnianie intymnych materiałów (głównie zdjęć lub filmów) bez zgody osoby przedstawionej, to coraz powszechniejszy problem w erze cyfrowej. Termin ten odnosi się zarówno do sytuacji, w których były partner publikuje kompromitujące treści w Internecie z zamiarem zemsty, jak i do szerszych form niekonsensualnej pornografii. W ostatnich latach zjawisko to przybrało na sile z uwagi na rosnącą dostępność technologii, mediów społecznościowych i chmury obliczeniowej, co umożliwia natychmiastowe powielanie i rozpowszechnianie materiałów na całym świecie. (więcej…)
DeepFake jako narzędzie wojny hybrydowej – sposoby wykorzystania, przykłady oraz etyka „sprawiedliwej wojny” w kontekście nowych technologii.
Wojny na miecze ustąpiły miejsca wojnom na karabiny, te z kolei bombom – ale czy nadchodzi era wojen informacyjnych, w których bronią są obrazy i dźwięki, a nie proch i stal? Technologia rozwija się nie tylko w codziennym użytku, lecz również w obszarze konfliktów zbrojnych.
W tym wpisie nie skupimy się na tradycyjnym sprzęcie wojskowym, lecz na nowym, coraz powszechniej wykorzystywanym narzędziu prowadzenia wojny – technologii DeepFake i jej zastosowaniu w dezinformacji oraz propagandzie w kontekście wojny hybrydowej. (więcej…)
Zjawisko „paper mills” a wykorzystanie wielkich modeli językowych w pisaniu prac naukowych – mechanizmy działania i konsekwencje.
Rozwój sztucznej inteligencji postawił świat nauki przed nowym wyzwaniem: ,,fabryki prac’’ (ang. paper mills) zalewają literaturę naukową publikacjami pozorującymi rzetelne badania. Dzięki potędze dużych modeli językowych (LLM) generowanie przekonujących – choć fałszywych – artykułów stało się łatwiejsze niż kiedykolwiek. To zjawisko podkopuje zaufanie do nauki w podobny sposób, w jaki fake newsy i deepfake’i podważają wiarygodność informacji w społeczeństwie. Główny wniosek jest jasny: bez zdecydowanych działań organizacyjnych i technologicznych ryzykujemy kryzys wiarygodności nauki na niespotykaną skalę.
Słaba czy silna AI, AGI i superinteligencja – raj czy zagłada?
Słaba czy silna AI, AGI i superinteligencja – raj czy zagłada?
W dobie eksplozji możliwości AI każdy z nas zadaje sobie pytanie: czy rozwój sztucznej inteligencji poprowadzi nas ku technologicznej zagładzie, czy raczej otworzy drogę do utopijnej przyszłości? W poniższym wpisie omówimy różnicę między „słabą” (wąską) a „silną” sztuczną inteligencją (AGI), wyjaśnimy pojęcie superinteligencji i osobliwości technologicznej, a także zestawimy najbardziej optymistyczne i najbardziej pesymistyczne scenariusze – od rozwiązywania problemów ludzkości po groźbę wymarcia. Bazujemy na najnowszych analizach i raportach (2023–2025), łącząc ich wyniki w wieloaspektową ocenę etycznych i społecznych konsekwencji AI. (więcej…)
Z drugiej strony – „tradycyjne” usługi związane z pogrzebem i upamiętnianiem zmarłych są od dawna komercyjne i traktujemy je jako…