{"id":5058,"date":"2024-05-08T23:04:13","date_gmt":"2024-05-08T23:04:13","guid":{"rendered":"http:\/\/architeles.eu\/ethics\/?p=5058"},"modified":"2024-05-09T07:20:14","modified_gmt":"2024-05-09T07:20:14","slug":"czy-aktorow-na-netflixie-bedziemy-wybierac-jak-wojownikow-w-mortal-kombat-wplyw-deepfakeu-na-kinematografie","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2024\/05\/08\/czy-aktorow-na-netflixie-bedziemy-wybierac-jak-wojownikow-w-mortal-kombat-wplyw-deepfakeu-na-kinematografie\/","title":{"rendered":"Czy aktor\u00f3w na Netflixie b\u0119dziemy wybiera\u0107 jak wojownik\u00f3w w Mortal Kombat? Wp\u0142yw deepfake&#8217;u na kinematografi\u0119."},"content":{"rendered":"<p><strong>Modele i narz\u0119dzia generuj\u0105ce obrazy ju\u017c zawita\u0142y do naszej codzienno\u015bci. Jednak gdy w gr\u0119 wchodzi generowanie wysokiej jako\u015bci wideo, wydawa\u0142oby si\u0119, \u017ce ten etap jest jeszcze przed nami. A mo\u017ce realistyczne wideo, uzyskane z pomoc\u0105 pot\u0119\u017cnego modelu to ju\u017c tera\u017aniejszo\u015b\u0107? Jak wykorzystywany jest deepfake i czy da si\u0119 z nim walczy\u0107? W tym artykule postaramy si\u0119 to przedyskutowa\u0107. Zawrzemy te\u017c nasz\u0105 opini\u0119 na temat deepfake&#8217;u i jego moralno\u015bci.<\/strong><\/p>\n<p><!--more--><\/p>\n<h1>Wst\u0119p<\/h1>\n<p><em>Deepfake<\/em> to technologia (b\u0105d\u017a media powsta\u0142e w wyniku jej u\u017cycia) umo\u017cliwiaj\u0105ca stworzenie wysoce realistycznych medi\u00f3w syntetycznych takie jak obrazy, wideo b\u0105d\u017a nagrania, na kt\u00f3rych osoba, b\u0105d\u017a jej g\u0142os s\u0105 zamieniane na podobizn\u0119\/g\u0142os innej osoby.<\/p>\n<p>Narz\u0119dzia deepfake wykorzystuj\u0105 zaawansowane metody uczenia maszynowego, aby manipulowa\u0107 lub generowa\u0107 tre\u015bci wizualne i audio, tworz\u0105c fa\u0142szywe multimedia, kt\u00f3re mog\u0105 by\u0107 trudne do odr\u00f3\u017cnienia od prawdziwych. Cho\u0107 taka technologia i matematyczne mechanizmy wykorzystane przy budowie takich narz\u0119dzi mog\u0105 brzmie\u0107 ekscytuj\u0105co, deepfake zwykle kojarzymy z czym\u015b negatywnym.<\/p>\n<p>W tym artykule zg\u0142\u0119bimy i przedyskutujemy kilka temat\u00f3w dotycz\u0105cych deepfake&#8217;u. Zaczniemy od rozr\u00f3\u017cnienia tego, co jest, a co nie jest deepfake&#8217;iem i om\u00f3wienia najnowszych osi\u0105gni\u0119\u0107 w dziedzinie sztucznej inteligencji stosowanej do generowania wideo. Nast\u0119pnie przejdziemy do zastosowania deepfake w kinematografii, np. tworzeniu sztucznych aktor\u00f3w przez Disney&#8217;a oraz wp\u0142ywie na przemys\u0142 filmowy widzianym na przyk\u0142adzie strajku SAG-AFTRA. Na koniec podamy przyk\u0142ady szkodliwego wykorzystywania tej technologii, om\u00f3wimy jej wp\u0142yw na spo\u0142ecze\u0144stwo oraz jej moralne implikacje.<\/p>\n<p>&nbsp;<\/p>\n<figure style=\"width: 569px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/9\/98\/Pope_Francis_in_puffy_winter_jacket.jpg\/1024px-Pope_Francis_in_puffy_winter_jacket.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"\" src=\"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/9\/98\/Pope_Francis_in_puffy_winter_jacket.jpg\/1024px-Pope_Francis_in_puffy_winter_jacket.jpg\" alt=\"Fake Pope Francis in a puffer jacket.\" width=\"569\" height=\"697\" \/><\/a><figcaption class=\"wp-caption-text\">Stworzony przez Midjourney fa\u0142szywy wizerunek papie\u017ca Franciszka w puchowej kurtce.<\/figcaption><\/figure>\n<h1>Co jest deepfake&#8217;em a co nim nie jest?<\/h1>\n<p>Termin &#8222;deepfake&#8221; zosta\u0142 po raz pierwszy u\u017cyty na szerok\u0105 skal\u0119 w grudniu 2017 roku, kiedy to u\u017cytkownik platformy Reddit o pseudonimie Deepfakes opublikowa\u0142 wideo pornograficzne z wykorzystaniem technologii zamiany twarzy znanych os\u00f3b na twarze znanych aktorek (m.in. Gal Gadot, Maisie Williams i Taylor Swift). Narz\u0119dzia deepfake s\u0142u\u017c\u0105ce do tworzenia wideo wykorzystuj\u0105 metody uczenia maszynowego takie jak autoenkodery wariacyjne (<em>VAE<\/em>), generatywne sieci przeciwstawne (<em>GAN<\/em>) czy modele dyfuzyjne (<em>diffusion models<\/em>).<\/p>\n<p>Deepfake mo\u017cna podzieli\u0107 na r\u00f3\u017cne kategorie na podstawie u\u017cytej technologii:<br \/>\n1. <strong>Face swapping<\/strong> \u2013 zamiana jednej twarzy na inn\u0105 w istniej\u0105cym wideo czy zdj\u0119ciu.<br \/>\n2. <strong>Facial reenactment<\/strong> \u2013 manipulacja ekspresjami twarzy w zapisie wideo, tak aby osoba na wideo zdawa\u0142a si\u0119 m\u00f3wi\u0107 co\u015b innego ni\u017c w rzeczywisto\u015bci.<br \/>\n3. <strong>Synthetic image generation<\/strong> \u2013 generowanie ca\u0142kowicie nowych obraz\u00f3w twarzy lub innych element\u00f3w, kt\u00f3re nie s\u0105 oparte na \u017cadnej istniej\u0105cej postaci.<br \/>\n4. <strong>Audio deepfakes<\/strong> \u2013 generowanie syntetycznych \u015bcie\u017cek d\u017awi\u0119kowych, kt\u00f3re na\u015bladuj\u0105 g\u0142os konkretnej osoby.<\/p>\n<p>&nbsp;<\/p>\n<figure style=\"width: 724px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"\" src=\"https:\/\/ietresearch.onlinelibrary.wiley.com\/cms\/asset\/3442c1b0-bb89-470c-95c3-de1c29ab29ec\/bme212031-fig-0002-m.jpg\" alt=\"Face swapping\" width=\"724\" height=\"238\" \/><figcaption class=\"wp-caption-text\">Diagram przedstawiaj\u0105cy proces Face swapping dla klatki wideo [1].<\/figcaption><\/figure>\n<p>Zale\u017cnie od celu ich stworzenia, materia\u0142y deepfake mo\u017cna klasyfikowa\u0107 jako:<br \/>\n1. <strong>Rozrywkowe<\/strong> \u2013 maj\u0105 charakter humorystyczny, cz\u0119sto dotycz\u0105 bohater\u00f3w popkultury lub postaci fikcyjnych np. zmiana twarzy aktor\u00f3w w filmach.<br \/>\n2. <strong>Edukacyjne<\/strong> \u2013 wykorzystanie do symulacji scenariuszy lub rekonstrukcji historycznych wydarze\u0144.<br \/>\n3. <strong>Dezinformacyjne<\/strong> \u2013 propagowanie nieprawdziwych informacji, maj\u0105 charakter fake news\u00f3w, mog\u0105 dotyczy\u0107 os\u00f3b publicznych i wprowadza\u0107 odbiorc\u0119 w b\u0142\u0105d.<br \/>\n4. <strong>Dyskredytuj\u0105ce<\/strong> \u2013 u\u017cywanie deepfake do o\u015bmieszenia b\u0105d\u017a kompromitacji przez publikacj\u0119 nagra\u0144 lub zdj\u0119\u0107 fa\u0142szuj\u0105cych czyny, lub wypowiedzi os\u00f3b; niekt\u00f3re z takich przypadk\u00f3w klasyfikuj\u0105 si\u0119 jako dzia\u0142ania przest\u0119pcze.<\/p>\n<p>Badania wykaza\u0142y, \u017ce oko\u0142o 96% wideo deepfake&#8217;\u00f3w to filmy pornograficzne i prawie wszystkie z nich dotyczy\u0142y kobiet [2]. Pozosta\u0142e 4% w wi\u0119kszo\u015bci stanowi\u0105 filmy przedstawiaj\u0105ce znane osoby: m.in. celebryt\u00f3w i polityk\u00f3w.<\/p>\n<p>Innym przyk\u0142adem wykorzystywania deepfake&#8217;\u00f3w jest sytuacja gdy kto\u015b podszywa si\u0119 pod naszego przyjaciela i wysy\u0142a nam wideo, w kt\u00f3rym np. prosi o szczodry przelew. Podobna sytuacja, ale na wi\u0119ksz\u0105 skal\u0119, zdarzy\u0142a si\u0119 w Marcu 2019 roku, gdy CEO brytyjskiej firmy energetycznej otrzyma\u0142 telefon od swojego szefa, prezesa firmy-matki z Niemiec. Odebra\u0142 telefon i us\u0142ysza\u0142 znajomy g\u0142os z niemieckim akcentem \u2014 szef przekaza\u0142 mu, \u017ce ma przela\u0107 220 000 euro na konto dostawcy na W\u0119grzech. Brytyjczyk go pos\u0142ucha\u0142. Jednak gdy fake&#8217;owy szef spr\u00f3bowa\u0142 tego triku ponownie, ten drugi sta\u0142 si\u0119 podejrzliwy i nie zrealizowa\u0142 ju\u017c kolejnych przelew\u00f3w. Niestety, 220 000 euro zosta\u0142o ju\u017c stracone. W przysz\u0142o\u015bci, wraz z rozwojem takich technologii, podszywanie si\u0119 pod innych stanie si\u0119 dziecinnie proste (np. na podstawie jednego zdj\u0119cia), wi\u0119c musimy by\u0107 przygotowani i podejrzliwie reagowa\u0107 na niestandardowe pro\u015bby od naszych znajomych.<\/p>\n<p>Inn\u0105, ale podobn\u0105 (i cz\u0119\u015bciowo si\u0119 pokrywaj\u0105c\u0105) ga\u0142\u0119zi\u0105 technologii s\u0105 modele generuj\u0105ce wideo. Nie s\u0105 one tym samym co narz\u0119dzia do deepfake&#8217;u \u2014 narz\u0119dzia deepfake, takie jak FaceApp, DeepFaceLab czy ZAO, s\u0142u\u017c\u0105 bezpo\u015brednio do manipulacji i generowania fa\u0142szywej tre\u015bci w mediach, gdzie g\u0142\u00f3wnym celem jest zmiana wygl\u0105du twarzy lub mowy w zarejestrowanych materia\u0142ach.<\/p>\n<p>Modele typu <em>text-to-video<\/em>, jak SORA od OpenAI, cho\u0107 mog\u0105 by\u0107 stosowane do tworzenia realistycznych scen opartych na wprowadzonych opisach tekstowych, nie s\u0142u\u017c\u0105 bezpo\u015brednio do generowania fa\u0142szywych film\u00f3w. S\u0105 to bardziej zaawansowane narz\u0119dzia s\u0142u\u017c\u0105ce do przekszta\u0142cania tekstowych opis\u00f3w w dynamiczne wizualizacje, kt\u00f3re mog\u0105 obejmowa\u0107 zar\u00f3wno sceny przypominaj\u0105ce rzeczywisto\u015b\u0107 jak i syntetyczne postacie oraz sytuacje nieistniej\u0105ce naprawd\u0119.<\/p>\n<p>W kontek\u015bcie etycznym i prawnym r\u00f3\u017cnica mi\u0119dzy narz\u0119dziami przeznaczonymi stricte do tworzenia deepfake&#8217;\u00f3w a modelami generuj\u0105cymi tre\u015bci video z tekstu ma kluczowe znaczenie, poniewa\u017c manipulacje deepfake\u2019owe zazwyczaj wi\u0105\u017c\u0105 si\u0119 z wi\u0119kszym ryzykiem nadu\u017cy\u0107 i s\u0105 bardziej kontrowersyjne ni\u017c inne formy sztucznej generacji tre\u015bci, kt\u00f3re mog\u0105 mie\u0107 wiele pozytywnych zastosowa\u0144.<\/p>\n<h1>Nowo\u015bci w Video AI<\/h1>\n<p>Najnowsze osi\u0105gni\u0119cia w dziedzinie Video AI pokazuj\u0105, \u017ce deepfake&#8217;i mog\u0105 sta\u0107 si\u0119 nie niemal nieodr\u00f3\u017cnialne od rzeczywisto\u015bci. SORA od OpenAI i VASA-1 od Microsoft definiuj\u0105 nowe granice mo\u017cliwo\u015bci generowania wideo, ale r\u00f3wnie\u017c stawiaj\u0105 pytania dotycz\u0105ce etyki i bezpiecze\u0144stwa cyfrowego.<\/p>\n<p><b>SORA <\/b>\u2014 rozwijany przez OpenAI model AI specjalizuj\u0105cy si\u0119 w generowaniu kr\u00f3tkich klip\u00f3w wideo na podstawie opis\u00f3w tekstowych. Pozwala on na tworzenie scen obejmuj\u0105cych r\u00f3\u017cnorodne elementy \u2014 od detalicznych ruch\u00f3w kamery po wyra\u017canie emocji przez postacie. Co wa\u017cne, model ma zdolno\u015b\u0107 do przed\u0142u\u017cania istniej\u0105cych ju\u017c klip\u00f3w poprzez dodawanie do nich nowej tre\u015bci, co otwiera nowe perspektywy dla sektora filmowego.<\/p>\n<p>Zadziwiaj\u0105ce jest, jak SORA radzi sobie z interpretacj\u0105 j\u0119zyka i przek\u0142adaniem tekstu na dynamiczne wideo. Dzi\u0119ki wykorzystaniu architektury <em>diffusion transformer<\/em>\u00a0model\u00a0jest w stanie wygenerowa\u0107 wysokiej jako\u015bci materia\u0142 wideo, kt\u00f3ry jest nie tylko realistyczny, ale i zgodny z intencjami tw\u00f3rcy.<\/p>\n<p>Jednak\u017ce, jak przyzna\u0142o OpenAI, model ten napotyka problemy z symulacj\u0105 fizyki kompleksowej sceny oraz zrozumieniem przyczynowo\u015bci, co mo\u017ce wp\u0142ywa\u0107 na autentyczno\u015b\u0107 wygenerowanych scen. Mimo tych niedoskona\u0142o\u015bci potencja\u0142 SORA jest ogromny, cho\u0107 niekt\u00f3rzy wyra\u017caj\u0105 obawy zwi\u0105zane z mo\u017cliwo\u015bci\u0105 wykorzystania tej technologii do cel\u00f3w dezinformacyjnych.<\/p>\n<p>&nbsp;<\/p>\n<p><iframe loading=\"lazy\" title=\"OpenAI Sora: Mammoth\" src=\"https:\/\/player.vimeo.com\/video\/913454615?dnt=1&amp;app_id=122963\" width=\"600\" height=\"338\" frameborder=\"0\" allow=\"autoplay; fullscreen; picture-in-picture; clipboard-write\"><\/iframe><\/p>\n<p style=\"text-align: left\"><span style=\"font-size: 10pt\">SORA &#8211; wygenerowany film z mamutami. Prompt: &#8222;Several giant wooly mammoths approach treading through a snowy meadow, their long wooly fur lightly blows in the wind as they walk, snow covered trees and dramatic snow capped mountains in the distance, mid afternoon light with wispy clouds and a sun high in the distance creates a warm glow, the low camera view is stunning capturing the large furry mammal with beautiful photography, depth of field.&#8221; [3]<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"OpenAI Sora: A cat waking up its sleeping owner...\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/kVnK2OgbgeQ?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p style=\"text-align: left\"><span style=\"font-size: 10pt\">SORA &#8211; kot budz\u0105cy kobiet\u0119; warto zwr\u00f3ci\u0107 uwag\u0119 na problem z generowaniem ko\u0144czyn [3]<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><strong>VASA-1<\/strong> \u2014 model od Microsoftu, z kolei, skupia si\u0119 na generowaniu niezwykle realistycznych wirtualnych postaci, kt\u00f3re mog\u0105 przemawia\u0107 w spos\u00f3b zsynchronizowany z dostarczonym audio. Kluczowym atutem VASA-1 jest zdolno\u015b\u0107 do zapewnienia nie tylko doskona\u0142ej synchronizacji d\u017awi\u0119ku z ruchem ust, ale i bardzo naturalnego zachowania ca\u0142ej twarzy oraz g\u0142owy. VASA-1 wykorzystuje innowacyjny model dynamiki twarzy i ruchu g\u0142owy, co pozwala na precyzyjne oddanie subtelnych emocji i niuans\u00f3w mimiki.<\/p>\n<p style=\"text-align: left\">Wyj\u0105tkow\u0105 cech\u0105 tego modelu jest fakt, \u017ce wystaczy nam tylko jedno, frontalne zdj\u0119cie twarzy oraz urywek nagranej rozmowy, aby wygenerowa\u0107 przekonuj\u0105ce i realistyczne wideo.<\/p>\n<p>&nbsp;<\/p>\n<div style=\"width: 600px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-5058-1\" width=\"600\" height=\"338\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/vasavatar.github.io\/VASA-1\/video\/realtime_demo.mp4?_=1\" \/><a href=\"https:\/\/vasavatar.github.io\/VASA-1\/video\/realtime_demo.mp4\">https:\/\/vasavatar.github.io\/VASA-1\/video\/realtime_demo.mp4<\/a><\/video><\/div>\n<p style=\"text-align: center\"><span style=\"font-size: 10pt\">Demo modelu VASA-1 [4]<\/span><\/p>\n<p>&nbsp;<\/p>\n<p>Zar\u00f3wno OpenAI jak i Microsoft postanowi\u0142y ograniczy\u0107 publiczny dost\u0119p do ich nowatorskich modeli, SORA i VASA-1, jako \u015brodek ostro\u017cno\u015bci przed potencjalnym negatywnym wykorzystaniem tych technologii. Ograniczenie to ma na celu zapobieganie wykorzystaniu AI do dzia\u0142a\u0144 takich jak fa\u0142szowanie to\u017csamo\u015bci czy produkcja dezinformacyjnych tre\u015bci.<\/p>\n<p>Firmy te zdecydowa\u0142y si\u0119 na wykonanie wewn\u0119trznych test\u00f3w, anga\u017cuj\u0105c ekspert\u00f3w do spraw dezinformacji i b\u0142\u0119d\u00f3w (tzw. 'Red Team&#8217;), aby zidentyfikowa\u0107 i minimalizowa\u0107 ryzyka zwi\u0105zane z nadu\u017cywaniem technologii. Zar\u00f3wno OpenAI, jak i Microsoft podkre\u015blaj\u0105, \u017ce chc\u0105 kontynuowa\u0107 rozw\u00f3j tych modeli w spos\u00f3b odpowiedzialny i etyczny.<\/p>\n<p>W przypadku SORA, OpenAI planuje w przysz\u0142o\u015bci udost\u0119pni\u0107 model publicznie, ale tylko po dok\u0142adnym zbadaniu wszystkich potencjalnych zagro\u017ce\u0144. Microsoft z kolei, podj\u0105\u0142 decyzj\u0119 o niewprowadzaniu na rynek modelu VASA-1 w obliczu mo\u017cliwych ryzyk.<\/p>\n<p>Te decyzje z jednej strony mog\u0105 znaczy\u0107, \u017ce firmy przejmuj\u0105 si\u0119 odpowiedzialno\u015bci\u0105 spo\u0142eczn\u0105 i etyczn\u0105 i nie chc\u0105 doprowadzi\u0107 do sytuacji, w kt\u00f3rej ka\u017cdy mo\u017ce wygenerowa\u0107 hiperrealistyczny deepfake bez ogranicze\u0144. Jednak posiadanie monopolu na takie zaawansowane technologie sprawia te\u017c, \u017ce te korporacje maj\u0105 ogromn\u0105 przewag\u0119 nad konkurencj\u0105 \u2014 by\u0107 mo\u017ce firmy te postanowi\u0142y nie upublicznia\u0107 tych modeli z czysto biznesowych pobudek?<\/p>\n<h1>Deepfake w kinematografii<\/h1>\n<p>W ostatnich latach technologia deepfake zyska\u0142a na znaczeniu w bran\u017cy filmowej, oferuj\u0105c fascynuj\u0105ce mo\u017cliwo\u015bci, ale i stawiaj\u0105c przed tw\u00f3rcami nowe wyzwania etyczne i prawne. Ta technologia, kt\u00f3ra pozwala na realistyczne zamiany twarzy i manipulacj\u0119 wyrazami, otwiera nowe perspektywy dla kinematografii.<\/p>\n<p>Jednym z pionier\u00f3w wykorzystania deepfake w produkcji filmowej jest Disney, kt\u00f3ry zastosowa\u0142 t\u0119 technologi\u0119 do &#8222;o\u017cywienia&#8221; postaci filmowych, kt\u00f3re by\u0142y grane przez nie\u017cyj\u0105cych ju\u017c aktor\u00f3w. [5] Przyk\u0142adem mo\u017ce by\u0107 zastosowanie deepfake w filmie &#8222;Rogue One&#8221;, gdzie cyfrowo odtworzono posta\u0107 Grand Moffa Tarkina, pierwotnie grana przez Petera Cushinga, oraz m\u0142od\u0105 wersj\u0119 ksi\u0119\u017cniczki Lei, kt\u00f3r\u0105 zagra\u0142a Carrie Fisher. Technologia ta pozwoli\u0142a na realistyczne przedstawienie tych postaci bez konieczno\u015bci korzystania z dubler\u00f3w czy ca\u0142kowitego rezygnowania z tych postaci.<\/p>\n<figure style=\"width: 602px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/qph.cf2.quoracdn.net\/main-qimg-afc85a89bdfeb7c06d27b9d71c95369a-pjlq\" alt=\"Why does Tarkin's CGI in Rogue One look so plastic-y? Could they have made it look more realistic? - Quora\" width=\"602\" height=\"399\" \/><figcaption class=\"wp-caption-text\">Tarkin \u2014 posta\u0107 z filmu <em>Rogue One<\/em> z na\u0142o\u017con\u0105 twarz\u0105 zmar\u0142ego aktora<\/figcaption><\/figure>\n<p>Rosn\u0105ce zastosowanie AI i technologii deepfake wywo\u0142a\u0142o r\u00f3wnie\u017c kontrowersje, jak te widoczne podczas strajku SAG-AFTRA w 2023 roku. Cz\u0142onkowie zwi\u0105zku zawodowego protestowali przeciwko wykorzystywaniu skanowania twarzy i cyfrowego generowania wyst\u0119p\u00f3w, kt\u00f3re mog\u0142yby zast\u0105pi\u0107 prawdziwych aktor\u00f3w na planie. Artystom chodzi\u0142o o zapewnienie, \u017ce nowe technologie nie zast\u0105pi\u0105 ich pracy, ale b\u0119d\u0105 s\u0142u\u017cy\u0107 jako narz\u0119dzie wspieraj\u0105ce ich artystyczn\u0105 ekspresj\u0119.<\/p>\n<p>Strajk podkre\u015bli\u0142 potrzeb\u0119 jasnych regulacji dotycz\u0105cych wykorzystania AI w produkcji filmowej. Aktorzy domagali si\u0119 nie tylko odpowiednich kompensat za u\u017cywanie ich wizerunk\u00f3w w cyfrowych produkcjach, ale tak\u017ce transparentno\u015bci w procesie ich tworzenia.<\/p>\n<p>U\u017cycie deepfake w kinematografii otwiera nowe mo\u017cliwo\u015bci dla tw\u00f3rc\u00f3w film\u00f3w i seriali, oferuj\u0105c narz\u0119dzia do kreowania niemo\u017cliwych wcze\u015bniej scen i efekt\u00f3w. Jednak\u017ce wymaga to odpowiedzialnego podej\u015bcia, zapewnienia praw aktor\u00f3w oraz dba\u0142o\u015bci o prawdziwo\u015b\u0107 i autentyczno\u015b\u0107 filmowego \u015bwiata. Rozw\u00f3j tych technologii sprawia, \u017ce bran\u017ca filmowa stoi obecnie na progu nowej ery, w kt\u00f3rej granice mi\u0119dzy prawdziwym a cyfrowo stworzonym \u015bwiatem staj\u0105 si\u0119 coraz bardziej p\u0142ynne.<\/p>\n<h1>Odbi\u00f3r spo\u0142eczny i moralno\u015b\u0107 deepfake&#8217;u<\/h1>\n<p>Technologia deepfake, cho\u0107 oferuje imponuj\u0105ce mo\u017cliwo\u015bci, budzi powa\u017cne obawy etyczne zwi\u0105zane z dezinformacj\u0105 i manipulacj\u0105. Jak wspominali\u015bmy, 96% wideo deepfake&#8217;\u00f3w to pornografia, a wi\u0119c w zdecydowanej wi\u0119kszo\u015bci wypadk\u00f3w technologia ta jest wykorzystywana w spos\u00f3b nieetyczny. Pocz\u0105tkowo platformy takie jak Reddit by\u0142y miejscem, gdzie rozpowszechniano pornografi\u0119 deepfake, co doprowadzi\u0142o do zakazu ich publikacji na tej platformie w lutym 2018 roku. Jednak zawsze znajd\u0105 si\u0119 takie platformy, na kt\u00f3rych jest to dopuszczone.<\/p>\n<p>Deepfake mo\u017ce wp\u0142ywa\u0107 destrukcyjnie na polityk\u0119, spo\u0142ecze\u0144stwo oraz prywatno\u015b\u0107, szczeg\u00f3lnie kobiet, poprzez tworzenie nieautoryzowanych tre\u015bci pornograficznych. W odpowiedzi na te zagro\u017cenia, powsta\u0142a inicjatywa i zbi\u00f3r danych <em>Deepfake Detection Challenge<\/em> (DFDC), wspierana przez firmy takie jak Facebook i Microsoft oraz akademickie instytucje, w tym MIT i Uniwersytet Oksfordzki. DFDC ma na celu rozwijanie metod wykrywania tre\u015bci deepfake, co jest kluczowe dla ograniczenia ich negatywnego wp\u0142ywu.<\/p>\n<p>Naszym zdaniem, deepfake s\u0142usznie posiada konotacje negatywne i kojarzy si\u0119 z zak\u0142amaniem i atakiem na prywatno\u015b\u0107. Jednak nale\u017cy pami\u0119ta\u0107, \u017ce deepfake nie zawsze jest wykorzystywany w z\u0142ych celach.<\/p>\n<h1>Literatura<\/h1>\n<p>[1] <a href=\"https:\/\/ietresearch.onlinelibrary.wiley.com\/doi\/full\/10.1049\/bme2.12031\">Peiipeng Yu et al.: A Survey on Deepfake Video Detection<\/a><\/p>\n<p>[2] <a href=\"https:\/\/mitsloan.mit.edu\/ideas-made-to-matter\/deepfakes-explained\">Deepfakes explained<\/a><\/p>\n<p>[3] <a href=\"https:\/\/openai.com\/index\/video-generation-models-as-world-simulators\/\">SORA: Video generation models as world simulators<\/a><\/p>\n<p>[4] <a href=\"https:\/\/www.microsoft.com\/en-us\/research\/project\/vasa-1\/\">Sichemg Xu et al.: VASA-1: Lifelike Audio-Driven Talking Faces Generated in Real Time<\/a><\/p>\n<p>[5] <a href=\"https:\/\/studios.disneyresearch.com\/2020\/06\/29\/high-resolution-neural-face-swapping-for-visual-effects\/\">Disney research: High resolution neural face swapping for visual effects<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Modele i narz\u0119dzia generuj\u0105ce obrazy ju\u017c zawita\u0142y do naszej codzienno\u015bci. Jednak gdy w gr\u0119 wchodzi generowanie wysokiej jako\u015bci wideo, wydawa\u0142oby si\u0119, \u017ce ten etap jest jeszcze przed nami. A mo\u017ce realistyczne wideo, uzyskane z pomoc\u0105 pot\u0119\u017cnego modelu to ju\u017c tera\u017aniejszo\u015b\u0107? Jak wykorzystywany jest deepfake i czy da si\u0119 z nim walczy\u0107? W tym artykule postaramy [&hellip;]<\/p>\n","protected":false},"author":216,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[351],"tags":[15,24,398,242,399],"class_list":["post-5058","post","type-post","status-publish","format-standard","hentry","category-agh-2023-24","tag-ai","tag-deepfake","tag-genai","tag-generowanie-obrazow","tag-video"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/5058","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/216"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=5058"}],"version-history":[{"count":12,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/5058\/revisions"}],"predecessor-version":[{"id":5169,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/5058\/revisions\/5169"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=5058"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=5058"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=5058"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}