{"id":8083,"date":"2025-06-03T06:34:37","date_gmt":"2025-06-03T06:34:37","guid":{"rendered":"https:\/\/architeles.eu\/ethics\/?p=8083"},"modified":"2025-06-03T08:03:13","modified_gmt":"2025-06-03T08:03:13","slug":"identyfikacja-i-oznaczanie-grafiki-generowanej-przez-ai-od-znakow-wodnych-po-zaawansowane-algorytmy-glebokiego-uczenia","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2025\/06\/03\/identyfikacja-i-oznaczanie-grafiki-generowanej-przez-ai-od-znakow-wodnych-po-zaawansowane-algorytmy-glebokiego-uczenia\/","title":{"rendered":"Identyfikacja i oznaczanie grafiki generowanej przez AI \u2013 od znak\u00f3w wodnych po zaawansowane algorytmy g\u0142\u0119bokiego uczenia."},"content":{"rendered":"<h1 data-pm-slice=\"1 1 []\">Czy to jeszcze cz\u0142owiek, czy ju\u017c maszyna? Po co oznacza\u0107 obrazy generowane przez AI i jak dzia\u0142a ich wykrywanie?<\/h1>\n<p data-pm-slice=\"1 1 []\">W dobie generatywnej sztucznej inteligencji granica mi\u0119dzy grafik\u0105 tworzon\u0105 przez cz\u0142owieka a obrazem wygenerowanym przez algorytmy coraz bardziej si\u0119 zaciera. W odpowiedzi na to wyzwanie powstaje wiele technologii maj\u0105cych na celu oznaczanie i wykrywanie tre\u015bci syntetycznych. Dlaczego to takie wa\u017cne? Bo chodzi o ochron\u0119 praw autorskich, walk\u0119 z dezinformacj\u0105 i budowanie zaufania do cyfrowych tre\u015bci.<\/p>\n<h3 data-pm-slice=\"1 1 []\"><strong>Dlaczego oznaczanie obraz\u00f3w AI jest potrzebne?<\/strong><\/h3>\n<ul>\n<li>\n<h3 data-pm-slice=\"1 1 []\">Ochrona przed wykorzystaniem do treningu bez zgody<\/h3>\n<p data-pm-slice=\"1 1 []\">Tw\u00f3rcy nie chc\u0105, by ich prace by\u0142y wykorzystywane do trenowania AI bez ich wiedzy. Oznaczenia pomagaj\u0105 zidentyfikowa\u0107 pochodzenie grafiki i chroni\u0107 oryginalno\u015b\u0107 dzie\u0142a.<\/p>\n<\/li>\n<li>\n<h3 data-pm-slice=\"1 1 [&quot;list&quot;,{&quot;spread&quot;:false,&quot;start&quot;:605,&quot;end&quot;:1080},&quot;regular_list_item&quot;,{&quot;start&quot;:747,&quot;end&quot;:933}]\"><strong>Przeciwdzia\u0142anie manipulacjom<\/strong><\/h3>\n<p data-pm-slice=\"1 1 []\">Obrazy mog\u0105 by\u0107 przerabiane i wykorzystywane do dezinformacji, np. w deepfake\u2019ach czy fa\u0142szywych wiadomo\u015bciach. Informacja o ich sztucznym pochodzeniu zmniejsza ryzyko nadu\u017cy\u0107.<\/p>\n<\/li>\n<li>\n<h3 data-pm-slice=\"1 1 []\">Oznaczanie i okre\u015blanie obraz\u00f3w wygenerowanych przez AI<\/h3>\n<p data-pm-slice=\"1 1 []\">Wprowadzenie jednoznacznych oznacze\u0144 (np. znak\u00f3w wodnych) oraz technologii detekcji pozwala odbiorcom rozpozna\u0107 tre\u015bci stworzone przez sztuczn\u0105 inteligencj\u0119 i podejmowa\u0107 \u015bwiadome decyzje jako odbiorcy.<\/p>\n<\/li>\n<\/ul>\n<p><!--more--><\/p>\n<h2><strong>Kryteria oceny wykrywania manipulacji grafik przez AI<\/strong><\/h2>\n<div>Chc\u0105c oceni\u0107 jako\u015b\u0107 narz\u0119dzia do weryfikacji grafik przed jego wykorzystaniem lub wprowadzeniem do u\u017cytku trzeba wzi\u0105\u0107 pod uwag\u0119 wiele kryteri\u00f3w. Dobr\u0105 pr\u00f3b\u0119 okre\u015blenia ich zakresu mo\u017cna odnale\u017a\u0107 w artykule &#8222;Detecting AI fingerprints: A guide to watermarking and beyond&#8221;. Poni\u017cej przedstawiamy parafraz\u0119 tych kryteri\u00f3w.<\/div>\n<ol>\n<li><strong>Skuteczno\u015b\u0107 detekcji:<\/strong><br \/>\nPodstawowy wska\u017anik to trafno\u015b\u0107 wykrywania \u2013 ile z faktycznie wygenerowanych obraz\u00f3w zostaje poprawnie rozpoznanych jako sztuczne? Wysoka dok\u0142adno\u015b\u0107 to warunek konieczny, ale nie wystarczaj\u0105cy.<\/li>\n<li><strong><strong>Odporno\u015b\u0107 na obej\u015bcia (robustness against evasion): <\/strong><\/strong>Skuteczne narz\u0119dzie powinno radzi\u0107 sobie z pr\u00f3bami obej\u015bcia zabezpiecze\u0144. Skalowanie, kompresja czy delikatna edycja obrazu nie powinny prowadzi\u0107 do utraty zdolno\u015bci detekcyjnych.<\/li>\n<li><strong><strong>Odporno\u015b\u0107 na fa\u0142szywe oznaczenia:<\/strong><\/strong>\n<p data-pm-slice=\"1 1 []\">Wa\u017cne jest te\u017c zabezpieczenie przed sytuacj\u0105, w kt\u00f3rej obraz generowany przez cz\u0142owieka zostaje b\u0142\u0119dnie zaklasyfikowany jako wygenerowany przez AI.<\/p>\n<\/li>\n<li><strong><strong>Zachowanie jako\u015bci obrazu:<\/strong><\/strong>\n<p data-pm-slice=\"1 1 []\">System detekcji nie powinien pogarsza\u0107 jako\u015bci analizowanego obrazu.<\/p>\n<\/li>\n<li><strong><strong>Detekcja cz\u0119\u015bciowo wygenerowanej zawarto\u015bci:<\/strong><\/strong>Cz\u0119sto mamy do czynienia z obrazami hybrydowymi \u2013 cz\u0119\u015bciowo wygenerowanymi przez AI, cz\u0119\u015bciowo zmodyfikowanymi przez cz\u0142owieka. Narz\u0119dzia powinny wykrywa\u0107 r\u00f3wnie\u017c takie przypadki.<\/li>\n<li><strong><strong>Uniwersalno\u015b\u0107 detektora:<\/strong><\/strong>Czy dany system dzia\u0142a niezale\u017cnie od modelu, kt\u00f3ry wygenerowa\u0142 obraz? Czy wymaga wcze\u015bniejszego oznakowania? Im wi\u0119kszy zakres wykrywania, tym lepiej.<\/li>\n<li><strong><strong>\u0141atwo\u015b\u0107 u\u017cycia:<\/strong><\/strong>Skuteczne rozwi\u0105zania powinny by\u0107 dost\u0119pne nie tylko dla ekspert\u00f3w. Interfejs u\u017cytkownika, API, dokumentacja \u2013 to wszystko wp\u0142ywa na u\u017cyteczno\u015b\u0107 narz\u0119dzia.<\/li>\n<li><strong><strong>Prywatno\u015b\u0107:<\/strong><\/strong>Niekt\u00f3re systemy wymagaj\u0105 przesy\u0142ania obraz\u00f3w do zewn\u0119trznych serwer\u00f3w. To mo\u017ce by\u0107 problematyczne w kontek\u015bcie ochrony danych.<\/li>\n<li><strong><strong>Zaufanie do technologii:<\/strong><\/strong>Na ko\u0144cu liczy si\u0119 transparentno\u015b\u0107 dzia\u0142ania i wiarygodno\u015b\u0107 tw\u00f3rc\u00f3w. Czy narz\u0119dzie jest peer-reviewed? Czy opiera si\u0119 na uznanych standardach?<\/li>\n<\/ol>\n<p>&nbsp;<\/p>\n<div>Spe\u0142nienie tych wszystkich kryteri\u00f3w jest na ten moment nieosi\u0105galne, ale stanowi pole do por\u00f3wnania dost\u0119pnych technologii i przedstawia mo\u017cliwo\u015bci rozwoju.<\/div>\n<h2><\/h2>\n<h2>Sposoby wykrywania manipulacji grafik przez AI<\/h2>\n<div>Systemy wykrywania obraz\u00f3w wygenerowanych przez AI mo\u017cna podzieli\u0107 na kilka g\u0142\u00f3wnych kategorii. R\u00f3\u017cni\u0105 si\u0119 one momentem zastosowania, metod\u0105 dzia\u0142ania i zakresem wykrywalno\u015bci.<\/div>\n<ul>\n<li><strong><strong>Znaki wodne<\/strong><\/strong><\/li>\n<\/ul>\n<p>Jednym z najbardziej rozpowszechnionych podej\u015b\u0107 do identyfikowania obraz\u00f3w generowanych przez sztuczn\u0105 inteligencj\u0119 jest stosowanie <strong>znak\u00f3w wodnych<\/strong>. W tym kontek\u015bcie odchodzi si\u0119 ju\u017c od tradycyjnych, widocznych logo czy napis\u00f3w umieszczony na \u015brodku zdj\u0119cia, lecz wprowadza si\u0119 <strong>niewidoczny znacznik cyfrowy<\/strong>\u00a0\u2013 dyskretnie zakodowan\u0105 informacj\u0119, kt\u00f3ra pozwala zidentyfikowa\u0107 pochodzenie obrazu. Taki znak jest trudny do zauwa\u017cenia dla cz\u0142owieka, ale mo\u017cliwy do odczytania przez odpowiednie algorytmy.<\/p>\n<p>&nbsp;<\/p>\n<p>Znak wodny mo\u017ce by\u0107 dodany do obrazu <strong>na dwa sposoby: w trakcie jego generowania lub ju\u017c po fakcie<\/strong>. W pierwszym przypadku, implementowanym, znak wodny jest wprowadzany bezpo\u015brednio przez model generuj\u0105cy obraz \u2013 jeszcze zanim ten zostanie wyeksportowany w formacie graficznym. Dzia\u0142a to poprzez modyfikacj\u0119 niskopoziomowych cech obrazu, w spos\u00f3b nieodr\u00f3\u017cnialny dla ludzkiego oka, ale sp\u00f3jny i wykrywalny przez przygotowane detektory. Zalet\u0105 tego podej\u015bcia jest du\u017ca kontrola nad sposobem osadzenia znaku, co przek\u0142ada si\u0119 na wi\u0119ksz\u0105 odporno\u015b\u0107 na p\u00f3\u017aniejsze edycje obrazu \u2013 takie jak kompresja, skalowanie czy drobne retusze. Wad\u0105 natomiast jest to, \u017ce wymaga bezpo\u015bredniego dost\u0119pu do modelu \u2013 nie mo\u017cna go zastosowa\u0107, je\u015bli obraz zosta\u0142 wygenerowany przez system nieobs\u0142uguj\u0105cy znakowania.<\/p>\n<p>&nbsp;<\/p>\n<p>Alternatyw\u0105 jest <strong>dodawanie znaku wodnego po wygenerowaniu obrazu<\/strong>, przez zewn\u0119trzne narz\u0119dzie lub system. W tym wariancie znak wodny jest dok\u0142adany do istniej\u0105cego ju\u017c pliku graficznego, zazwyczaj r\u00f3wnie\u017c w spos\u00f3b niewidoczny. Mo\u017cna to osi\u0105gn\u0105\u0107 na przyk\u0142ad przez modyfikacj\u0119 warto\u015bci pikseli w okre\u015blonych miejscach lub przez osadzenie informacji w kana\u0142ach koloru. Cho\u0107 to podej\u015bcie nie wymaga ingerencji w sam proces generowania i mo\u017ce by\u0107 stosowane na dowolnym obrazie, ma swoje ograniczenia. Najwi\u0119kszym z nich jest ni\u017csza odporno\u015b\u0107 na manipulacje \u2013 nawet proste przekszta\u0142cenia mog\u0105 zniszczy\u0107 lub zak\u0142\u00f3ci\u0107 znak, szczeg\u00f3lnie je\u015bli zosta\u0142 on dodany z mniejsz\u0105 precyzj\u0105. Istnieje te\u017c ryzyko pogorszenia jako\u015bci obrazu, je\u015bli algorytm znakuj\u0105cy nie zosta\u0142 odpowiednio skalibrowany.<\/p>\n<p>&nbsp;<\/p>\n<p>W obu przypadkach kluczowe jest to, \u017ce znak wodny musi by\u0107 nie tylko dyskretny, ale tak\u017ce odporny na edycj\u0119 i mo\u017cliwy do jednoznacznego wykrycia.<\/p>\n<ul>\n<li><strong><strong>Detekcja Post-Hoc<\/strong><\/strong><\/li>\n<\/ul>\n<p><strong>Post-hoc detection<\/strong>, czyli detekcja \u201epo fakcie\u201d, to podej\u015bcie polegaj\u0105ce na analizie obrazu ju\u017c po jego wygenerowaniu \u2013 <strong>niezale\u017cnie od tego, czy zawiera on znak wodny lub inne oznaczenie<\/strong>. W przeciwie\u0144stwie do metod bazuj\u0105cych na wbudowanych znacznikach, systemy post-hoc traktuj\u0105 obraz jak \u201eczarn\u0105 skrzynk\u0119\u201d: nie zak\u0142adaj\u0105 \u017cadnej dodatkowej informacji osadzonej w grafice, tylko pr\u00f3buj\u0105 ustali\u0107 jej pochodzenie na podstawie <strong>strukturalnych i statystycznych cech samego obrazu<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<p>W praktyce oznacza to, \u017ce specjalnie wyszkolone modele \u2013 najcz\u0119\u015bciej oparte na g\u0142\u0119bokim uczeniu \u2013 badaj\u0105 np. <strong>rozmieszczenie pikseli, charakterystyczne szumy, artefakty kompresji, zaburzenia tekstury czy nienaturalne przej\u015bcia tonalne<\/strong>, kt\u00f3re mog\u0105 wskazywa\u0107, \u017ce obraz zosta\u0142 wygenerowany przez sztuczn\u0105 inteligencj\u0119. Cz\u0119sto s\u0105 to cechy, kt\u00f3re s\u0105 niemal niezauwa\u017calne dla ludzkiego oka, ale wykrywalne przez algorytmy przeszkolone na du\u017cych zbiorach danych por\u00f3wnuj\u0105cych obrazy prawdziwe i syntetyczne.<\/p>\n<p>&nbsp;<\/p>\n<p>Zalet\u0105 detekcji post-hoc jest jej <strong>uniwersalno\u015b\u0107<\/strong>\u00a0\u2013 mo\u017cna j\u0105 zastosowa\u0107 do dowolnego obrazu, nawet je\u015bli zosta\u0142 wygenerowany przez nieznany model, nie zawiera znaku wodnego ani \u017cadnych metadanych. To czyni j\u0105 u\u017cyteczn\u0105 szczeg\u00f3lnie w kontek\u015bcie otwartego internetu, gdzie u\u017cytkownicy cz\u0119sto udost\u0119pniaj\u0105 obrazy bez informacji o ich pochodzeniu.<\/p>\n<p>&nbsp;<\/p>\n<p>Niestety, ta uniwersalno\u015b\u0107 wi\u0105\u017ce si\u0119 z pewnymi kompromisami. Detekcja post-hoc jest <strong>bardziej podatna na b\u0142\u0119dy<\/strong>\u00a0\u2013 zw\u0142aszcza w przypadku obraz\u00f3w, kt\u00f3re zosta\u0142y poddane obr\u00f3bce maj\u0105cej na celu ukrycie \u015blad\u00f3w generatywnego pochodzenia. Proste operacje, takie jak zmiana rozdzielczo\u015bci, mocna kompresja JPEG, filtry czy retusz, mog\u0105 skutecznie zmyli\u0107 algorytmy detekcyjne, kt\u00f3re opieraj\u0105 si\u0119 na subtelnych r\u00f3\u017cnicach mi\u0119dzy obrazem \u201eprawdziwym\u201d a \u201esyntetycznym\u201d. Co wi\u0119cej, wraz z post\u0119pem w dziedzinie generatywnego AI jako\u015b\u0107 obraz\u00f3w generowanych przez modele coraz trudniej odr\u00f3\u017cni\u0107 od tych rzeczywistych \u2013 co dodatkowo utrudnia wykrywanie post-hoc.<\/p>\n<p>&nbsp;<\/p>\n<p>Mimo tych ogranicze\u0144, narz\u0119dzia tego typu pe\u0142ni\u0105 istotn\u0105 rol\u0119 w ekosystemie detekcji tre\u015bci syntetycznych \u2013 szczeg\u00f3lnie jako <strong>ostatnia linia obrony<\/strong>\u00a0w sytuacjach, gdy brak jest jakichkolwiek oznacze\u0144 \u017ar\u00f3d\u0142owych.<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><strong><strong><strong>Retrieval-Based Detection<\/strong><\/strong><\/strong><\/li>\n<\/ul>\n<p><strong>Retrieval-based detection<\/strong>, czyli wykrywanie oparte na wyszukiwaniu i por\u00f3wnywaniu, to podej\u015bcie, kt\u00f3re zamiast analizowa\u0107 struktur\u0119 obrazu pod k\u0105tem typowych \u201e\u015bladowych\u201d cech AI, opiera si\u0119 na <strong>sprawdzaniu, czy dany obraz lub jego warianty istniej\u0105 ju\u017c w znanej bazie danych obraz\u00f3w wygenerowanych sztucznie<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<p>Dzia\u0142a to podobnie jak systemy reverse image search, ale z t\u0105 r\u00f3\u017cnic\u0105, \u017ce zamiast szuka\u0107 identycznych lub prawie identycznych zdj\u0119\u0107 w ca\u0142ym internecie, algorytm przeszukuje <strong>specjalnie przygotowan\u0105 baz\u0119 danych obraz\u00f3w wygenerowanych przez modele AI<\/strong>. Mo\u017ce to by\u0107 na przyk\u0142ad katalog stworzony przez firm\u0119 zajmuj\u0105c\u0105 si\u0119 oznaczaniem tre\u015bci syntetycznych, zbieraj\u0105cy obrazy pochodz\u0105ce z najpopularniejszych generator\u00f3w wraz z metadanymi.<\/p>\n<p>&nbsp;<\/p>\n<p>Kiedy taki system dostaje nowy obraz do sprawdzenia, wyodr\u0119bnia z niego zestaw cech, a nast\u0119pnie por\u00f3wnuje go z rekordami w swojej bazie. Je\u015bli znajdzie <strong>dok\u0142adne dopasowanie lub silne podobie\u0144stwo<\/strong>, mo\u017ce uzna\u0107, \u017ce obraz zosta\u0142 wygenerowany lub zmodyfikowany na bazie innego, wcze\u015bniej zarejestrowanego obrazu AI.<\/p>\n<p>&nbsp;<\/p>\n<p>Zalet\u0105 tej metody jest jej skuteczno\u015b\u0107 w wykrywaniu:<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li style=\"list-style-type: none;\">\n<ul>\n<li><strong>duplikat\u00f3w<\/strong>\u00a0\u2013 np. ponownie udost\u0119pnianych obraz\u00f3w AI bez zmian,<\/li>\n<li><strong>cz\u0119\u015bciowych przer\u00f3bek<\/strong>\u00a0\u2013 np. obraz\u00f3w poddanych lekkim filtrom, kadrowaniu lub modyfikacjom detali,<\/li>\n<li><strong>obraz\u00f3w pochodnych<\/strong>\u00a0\u2013 opartych na tych samych promptach lub wygenerowanych przez ten sam model w zbli\u017conym kontek\u015bcie.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p>Jednak skuteczno\u015b\u0107 retrieval-based detection <strong>silnie zale\u017cy od jako\u015bci, aktualno\u015bci i kompletno\u015bci bazy danych<\/strong>. Je\u015bli obraz zosta\u0142 wygenerowany niedawno i nie zosta\u0142 jeszcze zindeksowany, system mo\u017ce nie wykry\u0107 jego pochodzenia. Podobnie, je\u015bli generator AI dzia\u0142a lokalnie, to wynikowy obraz nie znajdzie si\u0119 w \u017cadnej centralnej bazie \u2013 i w\u00f3wczas metoda retrieval-based staje si\u0119 nieskuteczna.<\/p>\n<p>&nbsp;<\/p>\n<h2>Sposoby ochrony autorskich obraz\u00f3w<\/h2>\n<div>Nie wszystkie techniki skupiaj\u0105 si\u0119 na detekcji. Cz\u0119\u015b\u0107 z nich s\u0142u\u017cy aktywnej ochronie oryginalnych dzie\u0142, aby utrudni\u0107 ich nieautoryzowane u\u017cycie przez AI lub zapewni\u0107 identyfikowalno\u015b\u0107.<\/div>\n<div><\/div>\n<ul>\n<li><strong><strong><strong><strong>Metadane w obrazie<\/strong><\/strong><\/strong><\/strong><\/li>\n<\/ul>\n<p>Najprostsz\u0105, ale jednocze\u015bnie najbardziej podatn\u0105 na manipulacj\u0119 form\u0105 oznaczania obraz\u00f3w s\u0105 <strong>metadane<\/strong>, czyli dodatkowe informacje zapisane wewn\u0105trz pliku graficznego, zwykle w formacie <strong>EXIF<\/strong> lub <strong>XMP<\/strong>. Takie dane mog\u0105 zawiera\u0107:<\/p>\n<ul>\n<li style=\"list-style-type: none;\">\n<ul>\n<li style=\"list-style-type: none;\">\n<ul>\n<li style=\"list-style-type: none;\">\n<ul>\n<li>nazw\u0119 autora,<\/li>\n<li>dat\u0119 i miejsce utworzenia obrazu,<\/li>\n<li>nazw\u0119 aplikacji lub modelu generuj\u0105cego,<\/li>\n<li>identyfikator \u017ar\u00f3d\u0142owy.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p>Zalet\u0105 metadanych jest ich <strong>\u0142atwo\u015b\u0107 implementacji<\/strong> \u2013 mo\u017cna je doda\u0107 do niemal ka\u017cdego pliku graficznego bez wp\u0142ywu na jako\u015b\u0107 obrazu. S\u0105 te\u017c czytelne dla wielu system\u00f3w zarz\u0105dzania tre\u015bci\u0105 (CMS), edytor\u00f3w i przegl\u0105darek. Problem polega jednak na tym, \u017ce metadane s\u0105 r\u00f3wnie \u0142atwe do <strong>usuni\u0119cia lub zmodyfikowania<\/strong>\u00a0\u2013 wystarczy podstawowe narz\u0119dzie do edycji zdj\u0119\u0107, by je wyczy\u015bci\u0107.<\/p>\n<p>&nbsp;<\/p>\n<p>Aby zwi\u0119kszy\u0107 wiarygodno\u015b\u0107 metadanych, powsta\u0142 standard <strong>C2PA (Coalition for Content Provenance and Authenticity)<\/strong>, rozwijany przez konsorcjum firm, w tym <strong>Adobe<\/strong>, <strong>Microsoft<\/strong>, <strong>Intel<\/strong> i <strong>BBC<\/strong>. C2PA opiera si\u0119 na <strong>kryptograficznym podpisywaniu danych kontekstowych<\/strong>, co pozwala nie tylko osadzi\u0107 informacje o \u017ar\u00f3dle, ale te\u017c zapewni\u0107 ich integralno\u015b\u0107 i weryfikowalno\u015b\u0107. Innymi s\u0142owy \u2013 metadane chronione w ramach C2PA nie mog\u0105 zosta\u0107 zmienione bez pozostawienia \u015bladu. Cho\u0107 to krok w stron\u0119 wi\u0119kszej przejrzysto\u015bci, wdro\u017cenie C2PA wymaga wsparcia po stronie tw\u00f3rc\u00f3w tre\u015bci, platform dystrybucji i przegl\u0105darek<\/p>\n<ul>\n<li><strong><strong>Data Poisoning<\/strong><\/strong><\/li>\n<\/ul>\n<p><strong>Data poisoning<\/strong> to technika o bardziej aktywnym i strategicznym charakterze. Zamiast oznacza\u0107 gotowy obraz, <strong>celowo modyfikuje dane treningowe<\/strong> \u2013 czyli obrazy, kt\u00f3re mog\u0105 zosta\u0107 wykorzystane do szkolenia modeli generatywnych. Kluczowym za\u0142o\u017ceniem jest tu <strong>wprowadzenie takich subtelnych zniekszta\u0142ce\u0144 w obrazach<\/strong>, kt\u00f3re nie s\u0105 widoczne dla ludzkiego oka, ale <strong>wp\u0142ywaj\u0105 na proces uczenia si\u0119 modelu<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<p>Na przyk\u0142ad, artysta nie chce, by jego styl by\u0142 kopiowany przez AI, wi\u0119c publikuje obrazy z ukrytymi zmianami w strukturze pikseli, kt\u00f3re wprowadzaj\u0105 <strong>b\u0142\u0119dy w modelu<\/strong> pr\u00f3buj\u0105cym nauczy\u0107 si\u0119 tego stylu. W rezultacie, je\u015bli obraz zostanie u\u017cyty w zbiorze treningowym, model nauczy si\u0119 niew\u0142a\u015bciwych cech \u2013 np. b\u0142\u0119dnie odwzorowuj\u0105c proporcje czy kolory \u2013 co skutecznie <strong>zniekszta\u0142ca przysz\u0142e generacje obraz\u00f3w opartych na tym stylu<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<p>Przyk\u0142adem narz\u0119dzia wykorzystuj\u0105cego to podej\u015bcie jest <strong>Nightshade<\/strong>, opracowane przez zesp\u00f3\u0142 z University of Chicago. Narz\u0119dzie to pozwala artystom zabezpieczy\u0107 swoje prace przed nieautoryzowanym wykorzystaniem przez generatory AI poprzez <strong>\u201etrucizn\u0119\u201d zakodowan\u0105 w danych treningowych<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li><strong>Image Cloaking<\/strong><\/li>\n<\/ul>\n<p><strong>Image cloaking<\/strong> jest technik\u0105 pokrewn\u0105 data poisoning, ale r\u00f3\u017cni si\u0119 zar\u00f3wno <strong>momentem dzia\u0142ania<\/strong>, jak i <strong>celem<\/strong>. Zamiast sabotowa\u0107 model podczas jego treningu, cloaking <strong>chroni istniej\u0105ce obrazy przed analiz\u0105 lub wykorzystaniem przez modele AI<\/strong>, bez konieczno\u015bci udzia\u0142u w procesie uczenia.<\/p>\n<p>&nbsp;<\/p>\n<p>Dzia\u0142a to poprzez <strong>drobne, precyzyjne modyfikacje obrazu<\/strong>, kt\u00f3re s\u0105 <strong>niewidoczne dla cz\u0142owieka,<\/strong> ale skutecznie <strong>mylnie informuj\u0105 model<\/strong>, je\u015bli ten spr\u00f3buje np. zanalizowa\u0107 obraz w celu rekonstrukcji stylu czy wygenerowania podobnych tre\u015bci. Modyfikacje te nie wp\u0142ywaj\u0105 istotnie na percepcj\u0119 obrazu przez ludzi, ale <strong>zak\u0142\u00f3caj\u0105 spos\u00f3b, w jaki AI postrzega i przetwarza jego struktur\u0119<\/strong>.<\/p>\n<p>&nbsp;<\/p>\n<p>Cloaking jest wi\u0119c metod\u0105 <strong>defensywn\u0105<\/strong>, ukierunkowan\u0105 na <strong>ochron\u0119 tre\u015bci ju\u017c istniej\u0105cych<\/strong>, w odr\u00f3\u017cnieniu od data poisoning, kt\u00f3re dzia\u0142a na poziomie danych wej\u015bciowych modeli ucz\u0105cych si\u0119. Jednym z najbardziej znanych narz\u0119dzi cloakingowych jest <strong>Glaze<\/strong>\u00a0\u2013 tak\u017ce stworzone przez University of Chicago \u2013 kt\u00f3re pozwala artystom zabezpieczy\u0107 swoje obrazy przed nieautoryzowanym kopiowaniem stylu przez generatywne modele AI.<\/p>\n<h2 data-pm-slice=\"1 1 []\">Istniej\u0105ce technologie i organizacje wspieraj\u0105ce identyfikacj\u0119 obraz\u00f3w AI<\/h2>\n<p data-pm-slice=\"1 1 []\">Na rynku rozwija si\u0119 wiele narz\u0119dzi oraz inicjatyw, kt\u00f3rych celem jest przeciwdzia\u0142anie nieautoryzowanemu u\u017cyciu generatywnych tre\u015bci. Dzia\u0142ania te podejmowane s\u0105 zar\u00f3wno przez du\u017ce firmy technologiczne, jak i \u015brodowiska akademickie.<\/p>\n<h3 data-pm-slice=\"1 1 []\">Organizacje i firmy technologiczne<\/h3>\n<ul data-spread=\"false\" data-pm-slice=\"3 3 []\">\n<li><strong>C2PA (Coalition for Content Provenance and Authenticity)<\/strong> \u2013 mi\u0119dzynarodowa inicjatywa wspierana przez m.in. Adobe, Microsoft, Intel i BBC. Tworzy otwarty standard kryptograficznego podpisywania tre\u015bci cyfrowych, kt\u00f3ry pozwala zweryfikowa\u0107 \u017ar\u00f3d\u0142o i histori\u0119 edycji obrazu poprzez osadzanie metadanych oraz podpis\u00f3w cyfrowych.<\/li>\n<li><strong>Google \u2013 SynthID<\/strong> \u2013 system dodaj\u0105cy niewidoczne znaki wodne bezpo\u015brednio podczas generacji obrazu przez modele AI (Imagen). Te znaki wodne s\u0105 odporne na kompresj\u0119 i drobne edycje, ale nie wp\u0142ywaj\u0105 na jako\u015b\u0107 wizualn\u0105 obrazu.<\/li>\n<li><strong>OpenAI<\/strong> \u2013 stosuje niewidoczne znaki wodne w obrazach generowanych przez DALL-E 3. Szczeg\u00f3\u0142y dzia\u0142ania nie s\u0105 jawne, ale wiadomo, \u017ce opieraj\u0105 si\u0119 na strukturze obrazu i s\u0105 trudne do usuni\u0119cia bez uszkodzenia grafiki.<\/li>\n<li><strong>Amazon \u2013 Titan Image Generator<\/strong> \u2013 narz\u0119dzie generuj\u0105ce obrazy z automatycznym watermarkiem oraz osadzonymi metadanymi, kt\u00f3re mo\u017cna odczyta\u0107 za pomoc\u0105 API DetectGeneratedContent. Ma to wspiera\u0107 wykrywalno\u015b\u0107 i transparentno\u015b\u0107.<\/li>\n<\/ul>\n<h3 data-pm-slice=\"1 3 []\"><strong>Wdro\u017cenie w praktyce:<\/strong><\/h3>\n<ul data-spread=\"false\">\n<li><strong>Tw\u00f3rcy tre\u015bci<\/strong>: mog\u0105 chroni\u0107 swoje prace za pomoc\u0105 Glaze, Nightshade czy Fawkes. Zaleca si\u0119 r\u00f3wnie\u017c u\u017cywanie C2PA do podpisywania tre\u015bci.<\/li>\n<li><strong>Platformy spo\u0142eczno\u015bciowe i media<\/strong>: powinny wprowadza\u0107 automatyczne systemy detekcji oraz wspiera\u0107 integracj\u0119 z systemami C2PA.<\/li>\n<li><strong>Firmy technologiczne<\/strong>: zach\u0119ca si\u0119 je do wdra\u017cania watermark\u00f3w bezpo\u015brednio w modelach generatywnych.<\/li>\n<li><strong>Instytucje publiczne i regulatorzy<\/strong>: mog\u0105 promowa\u0107 standaryzacj\u0119 oraz u\u0142atwia\u0107 wsp\u00f3\u0142prac\u0119 w zakresie przejrzysto\u015bci (np. poprzez regulacje prawne).<\/li>\n<\/ul>\n<h3 data-pm-slice=\"1 1 []\"><strong>Wyzwania i przysz\u0142o\u015b\u0107 szerokiego wdro\u017cenia<\/strong><\/h3>\n<p data-pm-slice=\"1 1 []\">Na podstawie analiz, m.in. z raportu Brookings Institution, wskazuje si\u0119 kilka g\u0142\u00f3wnych przeszk\u00f3d:<\/p>\n<ul data-spread=\"true\" data-pm-slice=\"3 3 []\">\n<li><strong>Wymagana kooperacja developer\u00f3w<\/strong>: skuteczne wdro\u017cenie technologii identyfikacji wymaga, aby tw\u00f3rcy modeli generatywnych (zar\u00f3wno prywatni, jak i open-source) wsp\u00f3lnie uznali standardy i aktywnie uczestniczyli w ich rozwijaniu oraz wdra\u017caniu. Brak takiej wsp\u00f3\u0142pracy os\u0142abia efektywno\u015b\u0107 systemu globalnego oznaczania.<\/li>\n<li><strong>Braki w opensource\u2019owych rozwi\u0105zaniach<\/strong>: mimo rosn\u0105cej liczby projekt\u00f3w open-source w zakresie znakowania, wiele z nich jest s\u0142abo zabezpieczonych i \u0142atwych do obej\u015bcia. Oznacza to, \u017ce u\u017cytkownicy mog\u0105 nie\u015bwiadomie korzysta\u0107 z narz\u0119dzi pozbawionych realnej skuteczno\u015bci.<\/li>\n<li><strong>Potrzeba zaufania do us\u0142ugodawc\u00f3w<\/strong>: narz\u0119dzia detekcyjne cz\u0119sto wymagaj\u0105 przesy\u0142ania obraz\u00f3w do zewn\u0119trznych serwer\u00f3w. To stawia wyzwania zwi\u0105zane z prywatno\u015bci\u0105 i ochron\u0105 danych, zw\u0142aszcza w kontek\u015bcie wra\u017cliwych tre\u015bci.<\/li>\n<\/ul>\n<p data-pm-slice=\"1 3 []\"><strong>Rekomendacje:<\/strong><\/p>\n<ul data-spread=\"true\">\n<li><strong>Standaryzacja znak\u00f3w wodnych oraz stworzenie rejestru metod i certyfikowanych us\u0142ugodawc\u00f3w<\/strong>: pomo\u017ce to zwi\u0119kszy\u0107 interoperacyjno\u015b\u0107 mi\u0119dzy systemami i zwi\u0119kszy\u0107 zaufanie do stosowanych rozwi\u0105za\u0144.<\/li>\n<li><strong>Popularyzacja technologii<\/strong>: konieczna jest edukacja u\u017cytkownik\u00f3w oraz instytucji na temat dost\u0119pnych narz\u0119dzi, ich dzia\u0142ania i znaczenia. Im wi\u0119ksza \u015bwiadomo\u015b\u0107 spo\u0142eczna, tym wi\u0119ksza szansa na ich stosowanie.<\/li>\n<li><strong>Kontekstowe wdra\u017canie oznacze\u0144<\/strong>: nie ka\u017cdy obraz wymaga znakowania \u2013 warto okre\u015bli\u0107 priorytetowe obszary (np. media informacyjne, sztuka cyfrowa, dokumentacja publiczna), w kt\u00f3rych oznaczenia b\u0119d\u0105 obowi\u0105zkowe.<\/li>\n<li><strong>Priorytet ochrony prywatno\u015bci<\/strong>: systemy identyfikacji powinny dzia\u0142a\u0107 zgodnie z zasadami prywatno\u015bci-by-design, oferuj\u0105c alternatywy lokalnego dzia\u0142ania (on-device), mo\u017cliwo\u015b\u0107 anonimizacji danych i pe\u0142n\u0105 przejrzysto\u015b\u0107 operacji.<\/li>\n<\/ul>\n<h2 data-pm-slice=\"1 1 []\">Podsumowanie<\/h2>\n<p data-start=\"1186\" data-end=\"1638\">Identyfikacja i oznaczanie obraz\u00f3w generowanych przez sztuczn\u0105 inteligencj\u0119 to nie tylko kwestia technologii \u2014 to tak\u017ce sprawa etyki, przejrzysto\u015bci i odpowiedzialno\u015bci w cyfrowym \u015bwiecie. W sytuacji, w kt\u00f3rej ka\u017cda osoba mo\u017ce opublikowa\u0107 dowolny obraz, a narz\u0119dzia AI s\u0105 coraz powszechniej dost\u0119pne, musimy zadba\u0107 o systemowe zabezpieczenia. Chodzi zar\u00f3wno o ochron\u0119 artyst\u00f3w i autor\u00f3w, jak i o zapewnienie spo\u0142ecze\u0144stwu prawa do rzetelnej informacji.<\/p>\n<p data-start=\"1640\" data-end=\"2160\">\u017badne z dost\u0119pnych rozwi\u0105za\u0144 nie jest jeszcze idealne, ale rozw\u00f3j takich narz\u0119dzi jak SynthID, Glaze czy C2PA to krok w stron\u0119 bardziej transparentnej przysz\u0142o\u015bci. To w\u0142a\u015bnie one mog\u0105 pom\u00f3c nam zachowa\u0107 r\u00f3wnowag\u0119 mi\u0119dzy kreatywno\u015bci\u0105, wolno\u015bci\u0105 i zaufaniem w \u015bwiecie, gdzie rzeczywisto\u015b\u0107 coraz cz\u0119\u015bciej miesza si\u0119 z fikcj\u0105. Dalsza wsp\u00f3\u0142praca mi\u0119dzy tw\u00f3rcami technologii, platformami i u\u017cytkownikami b\u0119dzie kluczowa, by te rozwi\u0105zania sta\u0142y si\u0119 nie tylko mo\u017cliwe, ale te\u017c skuteczne i powszechnie stosowane.<\/p>\n<p>&nbsp;<\/p>\n<p>\u0179r\u00f3d\u0142a:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.brookings.edu\/articles\/detecting-ai-fingerprints-a-guide-to-watermarking-and-beyond\/\">https:\/\/www.brookings.edu\/articles\/detecting-ai-fingerprints-a-guide-to-watermarking-and-beyond\/<\/a><\/li>\n<li><a href=\"https:\/\/huggingface.co\/blog\/watermarking\">https:\/\/huggingface.co\/blog\/watermarking<\/a><\/li>\n<li><a href=\"https:\/\/medium.com\/%40adnanmasood\/toward-reliable-provenance-in-ai-generated-content-text-images-and-code-9ebe8c57ceae\">https:\/\/medium.com\/%40adnanmasood\/toward-reliable-provenance-in-ai-generated-content-text-images-and-code-9ebe8c57ceae<\/a><\/li>\n<li><a href=\"https:\/\/www.imatag.com\/blog\/the-invisible-digital-watermarking-saga-a-journey-through-time\">https:\/\/www.imatag.com\/blog\/the-invisible-digital-watermarking-saga-a-journey-through-time<\/a><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Czy to jeszcze cz\u0142owiek, czy ju\u017c maszyna? Po co oznacza\u0107 obrazy generowane przez AI i jak dzia\u0142a ich wykrywanie? W dobie generatywnej sztucznej inteligencji granica mi\u0119dzy grafik\u0105 tworzon\u0105 przez cz\u0142owieka a obrazem wygenerowanym przez algorytmy coraz bardziej si\u0119 zaciera. W odpowiedzi na to wyzwanie powstaje wiele technologii maj\u0105cych na celu oznaczanie i wykrywanie tre\u015bci syntetycznych. [&hellip;]<\/p>\n","protected":false},"author":311,"featured_media":8093,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[470],"tags":[339,15,177,246,238,21,24,37,242,87,20,70,109],"class_list":["post-8083","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-agh-2024-25","tag-sztucznainteligencja","tag-ai","tag-big-data","tag-chatgpt","tag-dall-e","tag-deep-fake","tag-deepfake","tag-fake-news","tag-generowanie-obrazow","tag-si","tag-sztuczna-inteligencja","tag-wojna-informacyjna","tag-zaufanie"],"jetpack_featured_media_url":"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/0_HZ_aIIMC2pnj5YXA.webp","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/8083","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/311"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=8083"}],"version-history":[{"count":13,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/8083\/revisions"}],"predecessor-version":[{"id":8109,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/8083\/revisions\/8109"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media\/8093"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=8083"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=8083"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=8083"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}