{"id":6292,"date":"2025-03-17T21:59:42","date_gmt":"2025-03-17T21:59:42","guid":{"rendered":"https:\/\/architeles.eu\/ethics\/?p=6292"},"modified":"2025-03-17T23:00:45","modified_gmt":"2025-03-17T23:00:45","slug":"muzyka-czy-maszyna-klonowanie-glosow-w-erze-ai-i-przyszlosc-artystycznej-tworczosci","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2025\/03\/17\/muzyka-czy-maszyna-klonowanie-glosow-w-erze-ai-i-przyszlosc-artystycznej-tworczosci\/","title":{"rendered":"Muzyka czy maszyna? Klonowanie g\u0142os\u00f3w w erze AI i przysz\u0142o\u015b\u0107 artystycznej tw\u00f3rczo\u015bci"},"content":{"rendered":"<p><strong>Klonowanie g\u0142osu to jedna z najbardziej fascynuj\u0105cych, ale i niepokoj\u0105cych innowacji w dziedzinie sztucznej inteligencji. Jeszcze niedawno traktowane jako ciekawostka technologiczna, dzi\u015b znajduje zastosowanie w filmach, grach wideo i dubbingu, a nawet pozwala artystom &#8222;\u015bpiewa\u0107&#8221; po\u015bmiertnie nowe utwory. Jednak wraz z rozwojem tej technologii pojawi\u0142y si\u0119 tak\u017ce ciemne strony \u2013 coraz cz\u0119\u015bciej s\u0142yszymy o oszustwach finansowych, fa\u0142szywych nagraniach politycznych czy deepfake\u2019ach wykorzystywanych do manipulacji opini\u0105 publiczn\u0105. Czy potrafimy jeszcze odr\u00f3\u017cni\u0107 prawdziwy g\u0142os od jego cyfrowej imitacji? A mo\u017ce wkraczamy w epok\u0119, w kt\u00f3rej nie b\u0119dziemy mogli ufa\u0107 nawet w\u0142asnym uszom?<\/strong><\/p>\n<p><!--more--><\/p>\n<p>Technologia klonowania g\u0142osu, umo\u017cliwia tworzenie syntetycznych kopii personalnej barwy i tembru g\u0142osu, kt\u00f3re s\u0105 niemal nie do odr\u00f3\u017cnienia od orygina\u0142u. Proces tworzenia klona g\u0142osowego sk\u0142ada si\u0119 zazwyczaj z kilku etap\u00f3w\u00a0<a href=\"https:\/\/bitdefender.pl\/deepfakes-audio-jak-dziala-i-dlaczego-jest-niebezpieczny\/\">[1]<\/a>:<\/p>\n<p><b>Pr\u00f3bkowanie g\u0142osu<\/b><span style=\"font-weight: 400\">: Zebranie danych audio od osoby, kt\u00f3rej g\u0142os ma by\u0107 sklonowany. Im wi\u0119cej zebranych pr\u00f3bek, tym dok\u0142adniejszy b\u0119dzie efekt ko\u0144cowy.<\/span><\/p>\n<p><b>Analiza i ekstrakcja cech<\/b><span style=\"font-weight: 400\">: Analiza nagra\u0144 w celu zidentyfikowania unikalnych cech g\u0142osu, takich jak tembr (barwa g\u0142osu). Cechy cz\u0119sto zwi\u0105zane s\u0105 z tagami lub kategoriami takimi jak wiek czy p\u0142e\u0107 m\u00f3wcy.<\/span><\/p>\n<p><span style=\"font-weight: 400\"><br \/>\n<\/span><b>Trenowanie modelu AI<\/b><span style=\"font-weight: 400\">: Wykorzystanie wyodr\u0119bnionych cech do nauczenia modelu uczenia maszynowego, kt\u00f3ry potrafi na\u015bladowa\u0107 specyficzne w\u0142a\u015bciwo\u015bci g\u0142osu.<\/span><span style=\"font-weight: 400\"><br \/>\n<\/span><\/p>\n<p><b>Synteza mowy<\/b><span style=\"font-weight: 400\">: Generowanie nowej wypowiedzi sklonowanym g\u0142osem, nawet zda\u0144, kt\u00f3rych pierwotny m\u00f3wca nigdy nie wypowiedzia\u0142.<\/span><span style=\"font-weight: 400\"><br \/>\n<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Michael Jackson - Surreal (new song made with AI) by JAKSPIN\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1603360905&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600\"><\/iframe><\/p>\n<p><span style=\"font-weight: 400\">Podczas klonowania g\u0142osu kluczowe jest oddzielenie cech charakterystycznych dla danej osoby (takich jak ton, intonacja, akcent, barwa g\u0142osu) od tre\u015bci wypowiedzi. Proces ten opiera si\u0119 na zaawansowanych technikach przetwarzania sygna\u0142u i sztucznej inteligencji. Zamiast analizowa\u0107 znaczenie wypowiadanych s\u0142\u00f3w, system koncentruje si\u0119 na akustycznych w\u0142a\u015bciwo\u015bciach d\u017awi\u0119ku. W tym celu stosuje si\u0119 <\/span><b>analiz\u0119 cz\u0119stotliwo\u015bciow\u0105<\/b><span style=\"font-weight: 400\">, w kt\u00f3rej g\u0142os jest przekszta\u0142cany w zestaw parametr\u00f3w opisuj\u0105cych jego fizyczne w\u0142a\u015bciwo\u015bci. Nowoczesne modele oparte na <\/span><b>sztucznej inteligencji<\/b><span style=\"font-weight: 400\">, takie jak <\/span><b>autoenkodery wariacyjne (VAE)<\/b><span style=\"font-weight: 400\"> i <\/span><b>transformery<\/b><span style=\"font-weight: 400\"> (np. VALL-E od Microsoftu <a href=\"https:\/\/www.microsoft.com\/en-us\/research\/project\/vall-e-x\/\">[4]<\/a>), ucz\u0105 si\u0119 separowa\u0107 <\/span><b>styl mowy<\/b><span style=\"font-weight: 400\"> (czyli unikalne cechy g\u0142osu) od <\/span><b>tre\u015bci j\u0119zykowej<\/b><span style=\"font-weight: 400\"> (czyli samych s\u0142\u00f3w). Sieci te analizuj\u0105 tysi\u0105ce pr\u00f3bek i identyfikuj\u0105 wzorce specyficzne dla danej osoby.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Po ekstrakcji cech system zapisuje je w <\/span><b>wektorze charakterystycznym dla danej osoby<\/b><span style=\"font-weight: 400\">. Nast\u0119pnie, gdy dostarczymy nowy tekst do wypowiedzenia, <\/span><b>syntezator mowy<\/b><span style=\"font-weight: 400\"> (np. Tacotron 2 <a href=\"https:\/\/pytorch.org\/hub\/nvidia_deeplearningexamples_tacotron2\/\">[5]<\/a>\u00a0 lub WaveNet <a href=\"https:\/\/deepmind.google\/discover\/blog\/wavenet-a-generative-model-for-raw-audio\/\">[6]<\/a>) generuje nowe nagranie, ale z zastosowaniem sklonowanych cech g\u0142osu. Starsze technologie, u\u017cywa\u0142y wcze\u015bniej nagranych fragment\u00f3w mowy i \u0142\u0105czy\u0142y je w nowe zdania. To jednak ogranicza\u0142o naturalno\u015b\u0107 i ekspresj\u0119 mowy. Nowoczesne systemy natomiast wykorzystuj\u0105 <\/span><b>sieci neuronowe<\/b><span style=\"font-weight: 400\"> do generowania sygna\u0142u mowy od podstaw. <\/span><b>Modele akustyczne<\/b><span style=\"font-weight: 400\"> (np. Tacotron 2) ucz\u0105 si\u0119 odwzorowywa\u0107 struktur\u0119 g\u0142osu, w tym intonacj\u0119, akcenty i melodi\u0119 mowy.\u00a0<\/span><\/p>\n<p><b>Potencjalne zastosowania technologii klonowania g\u0142osu<\/b><span style=\"font-weight: 400\"> s\u0105 r\u00f3\u017cnorodne:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><b>Rozrywka<\/b><span style=\"font-weight: 400\">: Tworzenie g\u0142os\u00f3w postaci w filmach, grach wideo i animacjach, co umo\u017cliwia realistyczne dubbingowanie bez konieczno\u015bci fizycznej obecno\u015bci aktor\u00f3w g\u0142osowych.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Asystenci g\u0142osowi<\/b><span style=\"font-weight: 400\">: Personalizacja wirtualnych asystent\u00f3w, takich jak Siri czy Alexa, pozwalaj\u0105ca u\u017cytkownikom wybra\u0107 preferowany g\u0142os, co sprawia, \u017ce interakcja jest bardziej spersonalizowana.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Medycyna<\/b><span style=\"font-weight: 400\">: Pomoc osobom z zaburzeniami mowy lub tym, kt\u00f3rzy stracili g\u0142os z powodu choroby, oferuj\u0105c mo\u017cliwo\u015b\u0107 odtworzenia ich naturalnego g\u0142osu.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Obs\u0142uga klienta<\/b><span style=\"font-weight: 400\">: Tworzenie realistycznych i interaktywnych odpowiedzi g\u0142osowych, oferuj\u0105cych bardziej spersonalizowane do\u015bwiadczenie dla klient\u00f3w.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Niemniej jednak, technologia ta niesie ze sob\u0105 <\/span><b>potencjalne zagro\u017cenia i wyzwania etyczne<\/b><span style=\"font-weight: 400\">. Klonowanie g\u0142osu mo\u017ce by\u0107 wykorzystane do tworzenia fa\u0142szywych nagra\u0144 (tzw. deepfake audio), kt\u00f3re mog\u0105 s\u0142u\u017cy\u0107 do oszustw, wy\u0142udze\u0144 czy rozpowszechniania dezinformacji. Przyk\u0142adem jest zjawisko &#8222;vishingu&#8221; (phishing g\u0142osowy), gdzie przest\u0119pcy podszywaj\u0105 si\u0119 pod zaufane osoby, aby wy\u0142udzi\u0107 poufne informacje lub \u015brodki finansowe.<\/span><\/p>\n<p><span style=\"font-weight: 400\">W zwi\u0105zku z tym, istotne jest opracowanie odpowiednich regulacji i standard\u00f3w bran\u017cowych, kt\u00f3re zapewni\u0105 etyczne wykorzystanie technologii klonowania g\u0142osu, chroni\u0105c jednocze\u015bnie prywatno\u015b\u0107 i bezpiecze\u0144stwo u\u017cytkownik\u00f3w.<\/span><\/p>\n<h3><strong>Etyczne Aspekty Klonowania G\u0142osu<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Rozwa\u017caj\u0105c etyczno\u015b\u0107 u\u017cycia technologii klonowania g\u0142osu nale\u017cy odpowiedzie\u0107 na 3 podstawowe pytania <a href=\"https:\/\/osf.io\/29jyq\/download\">[2]<\/a>:<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">Kto us\u0142yszy i b\u0119dzie u\u017cywa\u0142 mojego sklonowanego g\u0142osu?<\/span><\/i><span style=\"font-weight: 400\"> Zgodnie z decyzj\u0105 w\u0142a\u015bciciela g\u0142osu, to\u017csamo\u015b\u0107 jego sklonowanego g\u0142osu mo\u017ce by\u0107 udost\u0119pniona odbiorcom, od kameralnych (np. u\u017cywany tylko przez samego siebie i\/lub wybranych bliskich krewnych), przez bardziej og\u00f3lne, ale zdefiniowane kontekstem (np. g\u0142os wyk\u0142adowcy u\u017cywany tylko przez jego uniwersytet), po ca\u0142kowicie rozpowszechnione (np. g\u0142os przekazany do og\u00f3lnodost\u0119pnej bazy danych do u\u017cytku przez ka\u017cdego).\u00a0\u00a0<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">Jak m\u00f3j g\u0142os b\u0119dzie u\u017cywany?<\/span><\/i><span style=\"font-weight: 400\"> Dana osoba mo\u017ce by\u0107 zadowolona z tego, \u017ce jej g\u0142os jest u\u017cywany jako lektor audiobook\u00f3w dla dzieci, ale nie do czytania ksi\u0105\u017cek opisuj\u0105cych drastyczn\u0105 przemoc; mo\u017ce by\u0107 zadowolona z bycia g\u0142osem raport\u00f3w pogodowych Amazon Echo, ale nie jako osobisty chatbot w tym samym urz\u0105dzeniu.\u00a0\u00a0<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">Jak d\u0142ugo m\u00f3j g\u0142os b\u0119dzie u\u017cywany?<\/span><\/i><span style=\"font-weight: 400\"> Wyk\u0142adowca uniwersytecki mo\u017ce preferowa\u0107, aby jego pracodawca zaprzesta\u0142 tworzenia nowych tre\u015bci jego g\u0142osem po jego rezygnacji lub przej\u015bciu na emerytur\u0119; osoba sporz\u0105dzaj\u0105ca testament mo\u017ce wole\u0107 na\u0142o\u017cy\u0107 ograniczenia na to, jak jej spadkobiercy b\u0119d\u0105 u\u017cywa\u0107 klonu jej g\u0142osu po jej \u015bmierci.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Uchwalone w 2024 roku Rozporz\u0105dzenie Parlamentu Europejskiego i Rady UE w sprawie sztucznej inteligencji <a href=\"http:\/\/data.europa.eu\/eli\/reg\/2024\/1689\/oj\/eng\">[3] <\/a>wprowadza przepisy dotycz\u0105ce technologii generuj\u0105cych tre\u015bci syntetyczne, w tym klonowania g\u0142osu. G\u0142os oraz \u201cw\u0142a\u015bciwo\u015bci mowy\u201d uznawane s\u0105 jako cz\u0119\u015b\u0107 profilu biometrycznego cz\u0142owieka, kt\u00f3ry to profil powinien podlega\u0107 szczeg\u00f3lnej ochronie przez niew\u0142a\u015bciwym wykorzystaniem w systemach AI. Chocia\u017c wprost nie ma wzmianki o klonowaniu g\u0142osu w deepfake\u2019ach, przepisy dotycz\u0105ce przejrzysto\u015bci w Artykule 50 mog\u0105 mie\u0107 zastosowanie tak\u017ce w kontek\u015bcie technologii generuj\u0105cych syntetyczne g\u0142osy, kt\u00f3re mog\u0105 by\u0107 u\u017cyte do manipulacji lub oszustw. Podobnie jak w przypadku deepfake&#8217;\u00f3w, je\u015bli system AI jest wykorzystywany do generowania lub manipulowania tre\u015bciami audio, tw\u00f3rcy lub u\u017cytkownicy tych system\u00f3w s\u0105 zobowi\u0105zani do ujawnienia, \u017ce zawarto\u015b\u0107 jest sztucznie wygenerowana lub zmodyfikowana. Oznacza to, \u017ce gdy klonowanie g\u0142osu jest wykorzystywane w publicznych nagraniach, reklamach, filmach lub innych mediach, u\u017cytkownicy musz\u0105 jasno informowa\u0107 odbiorc\u00f3w, \u017ce dany g\u0142os jest wygenerowany przez sztuczn\u0105 inteligencj\u0119.<\/span><\/p>\n<h3><strong>Czy jest jeszcze miejsce na muzyczny geniusz w \u015bwiecie generatywnej AI?<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">W kwietniu 2024 roku mogli\u015bmy zaobserwowa\u0107 intryguj\u0105ce zjawisko. Na kilka tygodni przed premier\u0105 najnowszego albumu Taylor Swift, zatytu\u0142owanego <em>&#8222;The Tortured Poets Department&#8221;<\/em>, w sieci pojawi\u0142 si\u0119 rzekomy przeciek pierwszego singla &#8211; piosenki <em>&#8222;Fortnight&#8221;<\/em> z go\u015bcinnym udzia\u0142em Post\u2019a Malone. Nagranie to szybko zyska\u0142o popularno\u015b\u0107, wzbudzaj\u0105c du\u017ce zainteresowanie zar\u00f3wno w\u015br\u00f3d oddanych fan\u00f3w artystki, jak i szerszego grona s\u0142uchaczy.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Jak si\u0119 jednak p\u00f3\u017aniej okaza\u0142o, fragment utworu by\u0142 dzie\u0142em sztucznej inteligencji. Mimo to wielu s\u0142uchaczy uwierzy\u0142o w jego autentyczno\u015b\u0107. Co wi\u0119cej, po premierze prawdziwej wersji <em>&#8222;Fortnight&#8221;<\/em> pojawi\u0142y si\u0119 komentarze, w kt\u00f3rych fani przyznawali, \u017ce wersja wygenerowana przez AI by\u0142a wed\u0142ug nich bardziej chwytliwa, a nawet rzucali w eter pro\u015bby o wygenerowanie pe\u0142nej wersji piosenki. Ich \u017cyczenie zosta\u0142o spe\u0142nione, bo kilka tygodni p\u00f3\u017aniej Max Lange &#8211; autor kawa\u0142ka ze sklonowanymi g\u0142osami Taylor Swift i Post Malone, wyprodukowa\u0142 pe\u0142nowymiarow\u0105 piosenk\u0119, b\u0119d\u0105c\u0105 przed\u0142u\u017ceniem viralowego fragmentu (tym razem piosenka by\u0142a \u015bpiewana przez prawdziwych ludzi).<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Max Lange - Last Time (feat. Harlan Posey &amp; Dru Laine) (Official Lyric Video)\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/fH1_kU2Hh2A?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Taylor Swift - Fortnight (feat. Post Malone)\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/b7kmP1fsGg8?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400\">To wydarzenie otworzy\u0142o ciekaw\u0105 dyskusj\u0119 na temat roli sztucznej inteligencji w przemy\u015ble muzycznym oraz percepcji autentyczno\u015bci w sztuce. Pokaza\u0142o ono r\u00f3wnie\u017c, jak istotne dla odbioru dzie\u0142 artystycznych s\u0105 subiektywna interpretacja i oczekiwania s\u0142uchaczy. Wed\u0142ug zesz\u0142orocznych bada\u0144 \u00a0<a href=\"https:\/\/osf.io\/29jyq\/download\">[2]<\/a> uprzednia znajomo\u015b\u0107 m\u00f3wcy ma du\u017cy wp\u0142yw na odbi\u00f3r nagrania wygenerowanego przez AI. Znalaz\u0142o to te\u017c potwierdzenie w wy\u017cej przytoczonej sytuacji &#8211; najwi\u0119ksi fani Taylor Swift z \u0142atwo\u015bci\u0105 rozpoznali brak autentyczno\u015bci, podczas gdy osoby mniej zaznajomione z jej tw\u00f3rczo\u015bci\u0105 by\u0142y bardziej sk\u0142onne uzna\u0107 sztuczny fragment za prawdziwy i wyra\u017ca\u0142y wobec niego pozytywne opinie. To podkre\u015bla, \u017ce w erze zaawansowanych technologii granice mi\u0119dzy tw\u00f3rczo\u015bci\u0105 ludzk\u0105 a generowan\u0105 przez maszyny staj\u0105 si\u0119 coraz mniej wyra\u017ane. Dotarli\u015bmy do momentu, gdy przy pomocy jednego prostego prompta, ChatGPT jest w stanie napisa\u0107 dla nas tekst piosenki z uwzgl\u0119dnieniem stylu wskazanego artysty, a modele generatywne s\u0105 w stanie t\u0105 piosenk\u0119 dla nas wykona\u0107. Pytanie, czym jest prawdziwa sztuka nigdy nie by\u0142o bardziej aktualne.<\/span><\/p>\n<h3><strong>Co na to arty\u015bci?<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">W kwietniu 2024 roku organizacja Artist Rights Alliance udost\u0119pni\u0142a list otwarty, wzywaj\u0105cy do ochrony muzyk\u00f3w przed nadu\u017cyciami wynikaj\u0105cymi z pos\u0142ugiwania si\u0119 sztuczn\u0105 inteligencj\u0105. Podpisa\u0142o si\u0119 pod nim ponad 200 artyst\u00f3w m.in. Billie Eilish, J Balvin, Nicki Minaj, a tak\u017ce legendy, takie jak Stevie Wonder czy REM. List apeluje do firm technologicznych o zaprzestanie tworzenia narz\u0119dzi AI, kt\u00f3re mog\u0105 zast\u0105pi\u0107 lub podwa\u017cy\u0107 tw\u00f3rczo\u015b\u0107 ludzkich artyst\u00f3w oraz zniszczy\u0107 budowan\u0105 latami artystyczn\u0105 to\u017csamo\u015b\u0107 wielu z nich.<\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400\">&#8222;Ten atak na ludzk\u0105 kreatywno\u015b\u0107 musi zosta\u0107 powstrzymany. Musimy chroni\u0107 si\u0119 przed niestosownym wykorzystaniem AI do kradzie\u017cy g\u0142os\u00f3w i wizerunk\u00f3w profesjonalnych artyst\u00f3w, naruszania praw tw\u00f3rc\u00f3w i niszczenia ekosystemu muzycznego&#8221;<\/span><\/i><span style=\"font-weight: 400\"> \u2013 czytamy w li\u015bcie.<\/span><\/p><\/blockquote>\n<p><span style=\"font-weight: 400\">Cho\u0107 list nie wzywa do ca\u0142kowitego zakazu stosowania AI w muzyce, podkre\u015bla potrzeb\u0119 odpowiedzialnego i etycznego podej\u015bcia do tej technologii. <\/span><span style=\"font-weight: 400\">Zaznacza r\u00f3wnie\u017c, \u017ce niekt\u00f3re z najwi\u0119kszych i najbardziej wp\u0142ywowych firm wykorzystuj\u0105 prac\u0119 muzyk\u00f3w bez ich zgody do trenowania modeli AI. Te dzia\u0142ania bezpo\u015brednio zmierzaj\u0105 do zast\u0119powania pracy ludzkich wykonawc\u00f3w ogromnymi ilo\u015bciami d\u017awi\u0119k\u00f3w i obraz\u00f3w generowanych przez AI, co bezpo\u015brednio wp\u0142ywa na zmniejszenie tantiem\u00f3w wyp\u0142acanych artystom. Dla wielu mniejszych artyst\u00f3w oznacza to katastrofalne problemy z utrzymaniem.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">W odpowiedzi na rosn\u0105ce obawy, Tennessee jako pierwszy stan USA wprowadzi\u0142o prawo nazwane \u201eELVIS Act\u201d, maj\u0105ce na celu ochron\u0119 artyst\u00f3w przed nieautoryzowanym wykorzystywaniem ich g\u0142osu przez AI w celach komercyjnych. Prawo wesz\u0142o w \u017cycie 1 lipca 2024 r. i uczyni\u0142o nielegalnym replikowanie g\u0142osu artysty bez jego zgody.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Poza powy\u017cszymi obawami natury etycznej i finansowej, pojawia si\u0119 te\u017c ostra krytyka w kontek\u015bcie samej filozofii i estetyki. Nick Cave, zapytany o wygenerowan\u0105 przez AI piosenk\u0119 w jego stylu, odpowiedzia\u0142: <\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400\">\u201eTen utw\u00f3r to bzdura, groteskowa parodia tego, co znaczy by\u0107 cz\u0142owiekiem.\u201d<\/span><\/i><\/p><\/blockquote>\n<p><span style=\"font-weight: 400\">Cho\u0107 wida\u0107, \u017ce zdecydowania wi\u0119kszo\u015b\u0107 jest nieprzychylna u\u017cyciu AI w przemy\u015ble muzycznym, znale\u017ali si\u0119 r\u00f3wnie\u017c arty\u015bci, kt\u00f3rzy s\u0105 na to otwarci. Przyk\u0142adem jest kanadyjska piosenkarka i autorka tekst\u00f3w znana pod pseudonimem Grimes. W 2023 roku wprowadzi\u0142a w \u017cycie projekt &#8222;GrimesAI voiceprint&#8221;. W ramach tej inicjatywy we wsp\u00f3\u0142pracy z firm\u0105 CreateSafe stworzona zosta\u0142a platforma <a href=\"https:\/\/elf.tech\/\">Elf.Tech<\/a>. Dzi\u0119ki modelowi wytrenowanemu na pr\u00f3bkach g\u0142osu Grimes, tw\u00f3rcy mog\u0105 stworzy\u0107 oryginalne utwory, w kt\u00f3rych GrimesAI b\u0119dzie figurowa\u0107 jako g\u0142\u00f3wny lub go\u015bcinny artysta. W przypadku zatwierdzenia wsp\u00f3\u0142pracy, Grimes otrzyma 50% udzia\u0142u w tantiemach, jednak nie ro\u015bci sobie praw w\u0142asno\u015bci do nagrania ani kompozycji, chyba \u017ce jest to cover jej utworu.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Artystka podkre\u015bli\u0142a, \u017ce podoba jej si\u0119 idea <em>open source<\/em> w sztuce i zako\u0144czenia praw autorskich, co wywo\u0142a\u0142o gor\u0105c\u0105 debat\u0119. Ponadto wiele os\u00f3b wytkn\u0119\u0142o jej, \u017ce ogromna swoboda, na kt\u00f3r\u0105 przyzwala w swoim projekcie mo\u017ce doprowadzi\u0107 do sytuacji, gdzie jej g\u0142os zostanie u\u017cyty w piosence o nieodpowiednich tre\u015bciach, np. rasistowskich. W odpowiedzi artystka przyzna\u0142a we wpisie na platformie X, \u017ce utwory o \u201cbardzo, bardzo toksycznych s\u0142owach\u201d zostan\u0105 zdj\u0119te.<\/span><\/p>\n<p><a href=\"https:\/\/x.com\/grimezsz\/status\/1650541506925670428\">https:\/\/x.com\/grimezsz\/status\/1650541506925670428<\/a><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-medium wp-image-6314 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/03\/grimes-300x271.png\" alt=\"\" width=\"300\" height=\"271\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/03\/grimes-300x271.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/03\/grimes.png 591w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/p>\n<h3>Podsumowanie<\/h3>\n<p>Sztuczna inteligencja we wszystkich dziedzinach \u017cycia ma swoich przeciwnik\u00f3w i zwolennik\u00f3w, nie inaczej jest r\u00f3wnie\u017c w przypadku technologii klonowania g\u0142osu. Dzisiaj stoimy przed wieloma pytaniami oraz posiadamy niewiele odpowiedzi, a zalet wydaje si\u0119 by\u0107 r\u00f3wnie wiele jak zagro\u017ce\u0144. Nadchodz\u0105ce lata zapowiadaj\u0105 si\u0119 na czas intensywnych debat i regulacji, gdzie celem b\u0119dzie znalezienie z\u0142otego \u015brodka pomi\u0119dzy innowacj\u0105 a ochron\u0105 praw tw\u00f3rc\u00f3w.<\/p>\n<h3>\u0179r\u00f3d\u0142a<\/h3>\n<p><span style=\"font-weight: 400\">[1] R, Piotr. Deepfakes audio \u2013 jak dzia\u0142a? | Bitdefender &#8211; program antywirusowy. 15 luty 2024, <\/span><a href=\"https:\/\/bitdefender.pl\/deepfakes-audio-jak-dziala-i-dlaczego-jest-niebezpieczny\/\"><span style=\"font-weight: 400\">https:\/\/bitdefender.pl\/deepfakes-audio-jak-dziala-i-dlaczego-jest-niebezpieczny\/<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">[2] McGettigan, C., Bloch, S., Bowles, C., Dinkar, T., Lavan, N., Reus, J., &amp; Rosi, V. (2024). Voice cloning: Psychological and ethical implications of intentionally synthesising familiar voice identities.<\/span><\/p>\n<p><span style=\"font-weight: 400\">[3] <\/span><i><span style=\"font-weight: 400\">Regulation (EU) 2024\/1689 of the European Parliament and of the Council of 13 June 2024 Laying down Harmonised Rules on Artificial Intelligence and Amending Regulations (EC) No 300\/2008, (EU) No 167\/2013, (EU) No 168\/2013, (EU) 2018\/858, (EU) 2018\/1139 and (EU) 2019\/2144 and Directives 2014\/90\/EU, (EU) 2016\/797 and (EU) 2020\/1828 (Artificial Intelligence Act) (Text with EEA Relevance)<\/span><\/i><span style=\"font-weight: 400\">. 13 czerwiec 2024, http:\/\/data.europa.eu\/eli\/reg\/2024\/1689\/oj\/eng.<\/span><\/p>\n<p><span style=\"font-weight: 400\">[4] \u201eVALL-E\u201d. <\/span><i><span style=\"font-weight: 400\">Microsoft Research<\/span><\/i><span style=\"font-weight: 400\">, https:\/\/www.microsoft.com\/en-us\/research\/project\/vall-e-x\/. Dost\u0119p 17 marzec 2025.<\/span><\/p>\n<p><span style=\"font-weight: 400\">[5] \u201eTacotron 2\u201d. <\/span><i><span style=\"font-weight: 400\">PyTorch<\/span><\/i><span style=\"font-weight: 400\">, https:\/\/pytorch.org\/hub\/nvidia_deeplearningexamples_tacotron2\/. Dost\u0119p 17 marzec 2025.<\/span><\/p>\n<p><span style=\"font-weight: 400\">[6] \u201eWaveNet: A Generative Model for Raw Audio\u201d. <\/span><i><span style=\"font-weight: 400\">Google DeepMind<\/span><\/i><span style=\"font-weight: 400\">, 12 marzec 2025, <\/span><a href=\"https:\/\/deepmind.google\/discover\/blog\/wavenet-a-generative-model-for-raw-audio\/\"><span style=\"font-weight: 400\">https:\/\/deepmind.google\/discover\/blog\/wavenet-a-generative-model-for-raw-audio\/<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">[7] <\/span><a href=\"https:\/\/artistrightsnow.medium.com\/200-artists-urge-tech-platforms-stop-devaluing-music-559fb109bbac\"><span style=\"font-weight: 400\">https:\/\/artistrightsnow.medium.com\/200-artists-urge-tech-platforms-stop-devaluing-music-559fb109bbac<\/span><\/a><\/p>\n<p><span style=\"font-weight: 400\">[8] <\/span><a href=\"https:\/\/www.forbes.com\/sites\/antoniopequenoiv\/2023\/06\/12\/grimes-helps-artists-distribute-songs-using-her-ai-voice--if-they-pay-royalties-heres-how-it-works\/\"><span style=\"font-weight: 400\">https:\/\/www.forbes.com\/sites\/antoniopequenoiv\/2023\/06\/12\/grimes-helps-artists-distribute-songs-using-her-ai-voice&#8211;if-they-pay-royalties-heres-how-it-works\/<\/span><\/a><\/p>\n<p><span style=\"font-weight: 400\">[9] <\/span><a href=\"https:\/\/www.theguardian.com\/technology\/2024\/apr\/02\/musicians-demand-protection-against-ai\"><span style=\"font-weight: 400\">https:\/\/www.theguardian.com\/technology\/2024\/apr\/02\/musicians-demand-protection-against-ai<\/span><\/a><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Klonowanie g\u0142osu to jedna z najbardziej fascynuj\u0105cych, ale i niepokoj\u0105cych innowacji w dziedzinie sztucznej inteligencji. Jeszcze niedawno traktowane jako ciekawostka technologiczna, dzi\u015b znajduje zastosowanie w filmach, grach wideo i dubbingu, a nawet pozwala artystom &#8222;\u015bpiewa\u0107&#8221; po\u015bmiertnie nowe utwory. Jednak wraz z rozwojem tej technologii pojawi\u0142y si\u0119 tak\u017ce ciemne strony \u2013 coraz cz\u0119\u015bciej s\u0142yszymy o oszustwach [&hellip;]<\/p>\n","protected":false},"author":230,"featured_media":6312,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[470],"tags":[339,15,12,228,465],"class_list":["post-6292","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-agh-2024-25","tag-sztucznainteligencja","tag-ai","tag-etyka","tag-muzyka","tag-prawa-autorskie"],"jetpack_featured_media_url":"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/03\/Zrzut-ekranu-2025-03-17-225344.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/6292","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/230"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=6292"}],"version-history":[{"count":5,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/6292\/revisions"}],"predecessor-version":[{"id":6329,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/6292\/revisions\/6329"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media\/6312"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=6292"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=6292"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=6292"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}