{"id":2919,"date":"2023-03-22T13:52:47","date_gmt":"2023-03-22T13:52:47","guid":{"rendered":"http:\/\/architeles.eu\/ethics\/?p=2919"},"modified":"2023-03-22T21:19:06","modified_gmt":"2023-03-22T21:19:06","slug":"muzyczny-midjourney-czy-muzycy-podziela-los-artystow-graficznych","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2023\/03\/22\/muzyczny-midjourney-czy-muzycy-podziela-los-artystow-graficznych\/","title":{"rendered":"Muzyczny Midjourney. Czy muzycy podziel\u0105 los artyst\u00f3w graficznych?"},"content":{"rendered":"<p style=\"text-align: justify\"><strong>\u015awiat muzyki to obszar, w kt\u00f3rym sztuczna inteligencja nie wybrzmia\u0142a jeszcze tak dono\u015bnie jak w przypadku sztuki graficznej. W ostatnich miesi\u0105cach Google opublikowa\u0142o nowy model AI &#8211; MusicLM. Wyprzedzaj\u0105c swoich poprzednik\u00f3w takich jak Jukebox czy Mubert model ten mo\u017ce postawi\u0107 muzykom podobne pytania, jakie DALLE i Midjourney postawi\u0142y niedawno tw\u00f3rcom graficznym. Kwestia praw autorskich i zast\u0105pienia tw\u00f3rc\u00f3w jest i w tym przypadku nieoczywista, cho\u0107 wiele wskazuje na to, \u017ce na robot band z prawdziwego zdarzenia trzeba jeszcze poczeka\u0107.<\/strong><\/p>\n<p style=\"text-align: justify\"><!--more--><\/p>\n<h1 style=\"text-align: justify\"><span style=\"font-weight: 400\">Najpierw arty\u015bci graficzni, teraz muzycy<\/span><\/h1>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Sztuczna inteligencja zaczyna by\u0107 postrzegana jako potencjalne zagro\u017cenie w wielu zawodach. Narz\u0119dzia wykorzystuj\u0105ce modele AI budz\u0105 w opinii publicznej ca\u0142\u0105 gam\u0119 emocji. Szczeg\u00f3lnie g\u0142o\u015bne w ostatnich miesi\u0105cach s\u0105 kwestie modeli j\u0119zykowych (ChatGPT) oraz narz\u0119dzi generuj\u0105cych obrazy (DALLE, Midjourney) &#8211; dla niekt\u00f3rych s\u0105 one powodem do strachu o przysz\u0142o\u015b\u0107 dziennikarzy, malarzy czy programist\u00f3w, a inni postrzegaj\u0105 je jako narz\u0119dzia kt\u00f3re do\u0142\u0105cz\u0105 do standardowego wachlarzu umiej\u0119tno\u015bci wymaganych w tych bran\u017cach. Czy muzycy tak\u017ce powinni martwi\u0107 si\u0119 o swoj\u0105 przysz\u0142o\u015b\u0107 lub uczy\u0107 si\u0119 wdra\u017ca\u0107 modele sztucznej inteligencji do swojej pracy? Analiza najnowszych narz\u0119dzi pokazuje, \u017ce wkr\u00f3tce do g\u0142o\u015bnych dyskusji na temat miejsca AI w sztuce i biznesie do\u0142\u0105czy tak\u017ce bran\u017ca muzyczna.<\/span><\/p>\n<h1 style=\"text-align: justify\"><span style=\"font-weight: 400\">Literatura &#8211; nowe modele muzyczne i ich analiza<\/span><\/h1>\n<h2 style=\"text-align: justify\">MusicLM<\/h2>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Dominacja OpenAI na polu modeli tekstowych mo\u017ce sprawia\u0107 wra\u017cenie, \u017ce Google zosta\u0142o daleko w tyle za konkurencj\u0105 w sferze sztucznej inteligencji. Swoim najnowszym narz\u0119dziem o nazwie MusicLM <strong>(Agostinelli et al., 2023)<\/strong> firma pokaza\u0142a jednak, \u017ce w przypadku AI generuj\u0105cego muzyk\u0119 s\u0105 zdecydowanymi liderami. Zaprezentowany w styczniu 2023 roku model mo\u017ce wygenerowa\u0107 utwory utrzymuj\u0105ce wysok\u0105 jako\u015b\u0107 (24kHz) przez kilka minut (d\u0142ugo\u015b\u0107 standardowego utworu muzycznego). Warunkowanie mo\u017ce odby\u0107 si\u0119 zar\u00f3wno poprzez podanie komendy tekstowej w formacie podobnym do ChatGPT, jak i komendy tekstowej po\u0142\u0105czonej z samplem muzycznym. U\u017cytkownik mo\u017ce zatem zanuci\u0107 dowoln\u0105 melodi\u0119, a nast\u0119pnie wskaza\u0107, by zosta\u0142a kontynuowana w okre\u015blonym stylu lub symuluj\u0105c wskazane instrumenty. Przyk\u0142ady przedstawione przez tw\u00f3rc\u00f3w modelu zawieraj\u0105 instrukcje tekstowe definiuj\u0105ce nie tylko techniczne aspekty utwor\u00f3w, ale tak\u017ce emocje, jakie ma budzi\u0107 wygenerowana muzyka:<\/span><\/p>\n<blockquote><p><em><span style=\"font-weight: 400\">Epic soundtrack using orchestral instruments. The piece builds tension, creates a sense of urgency. An a cappella chorus sing in unison, it creates a sense of power and strength<\/span><\/em><\/p><\/blockquote>\n<p><iframe loading=\"lazy\" title=\"Epic Soundtrack (MusicLM) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1475026561&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-cIg5mjhf2px\"><\/iframe><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Mo\u017cliwo\u015bci kt\u00f3re przedstawia model bazowany na frameworku AudioLM zdaj\u0105 si\u0119 nieograniczone. Wygenerowa\u0107 mo\u017cna pe\u0142ne utwory muzyczne sk\u0142adaj\u0105ce si\u0119 z faz o r\u00f3\u017cnym charakterze, jak i pojedyncze partie instrumentalne o r\u00f3\u017cnym poziomie zaawansowania:<\/span><\/p>\n<blockquote><p><em><span style=\"font-weight: 400\">electronic song played in a videogame <\/span><span style=\"font-weight: 400\">(0:00-0:15)<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">meditation song played next to a river <\/span><span style=\"font-weight: 400\">(0:15-0:30)<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">fire <\/span><span style=\"font-weight: 400\">(0:30-0:45)<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">fireworks <\/span><span style=\"font-weight: 400\">(0:45-0:60)<\/span><\/em><\/p><\/blockquote>\n<p><iframe loading=\"lazy\" title=\"Electronic To Fireworks (MusicLM) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1475026372&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-YICJ8GHNDFO\"><\/iframe><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Symulowa\u0107 mo\u017cna tak\u017ce wokal, cho\u0107 w tym przypadku nale\u017cy spodziewa\u0107 si\u0119 niezrozumia\u0142ego ci\u0105gu sylab, niekiedy nieco przypominaj\u0105cego konkretny j\u0119zyk:<\/span><\/p>\n<blockquote><p><em>This is an r&amp;b\/hip-hop music piece. There is a male vocal rapping and a female vocal singing in a rap-like manner. The beat is comprised of a piano playing the chords of the tune with an electronic drum backing. The atmosphere of the piece is playful and energetic. This piece could be used in the soundtrack of a high school drama movie\/TV show. It could also be played at birthday parties or beach parties.<\/em><\/p><\/blockquote>\n<p><iframe loading=\"lazy\" title=\"HipHop With Vocals (MusicLM) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1475027887&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-MzYj0iwDNZh\"><\/iframe><\/p>\n<p style=\"text-align: justify\">Sample wygenerowane z zacytowanych prompt\u00f3w oraz inne mo\u017cna znale\u017a\u0107 na <a href=\"https:\/\/google-research.github.io\/seanet\/musiclm\/examples\/\" target=\"_blank\" rel=\"noopener\">stronie domowej<\/a> projektu.<\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Model zosta\u0142 wytrenowany na zestawie \u015bcie\u017cek d\u017awi\u0119kowych bez opisu, a jego ewaluacja zosta\u0142a dokonana na specjalnie utworzonym zbiorze MusicCaps. Zbi\u00f3r ten zosta\u0142 stworzony na potrzeby pracy, ze wzgl\u0119du na ma\u0142\u0105 dost\u0119pno\u015b\u0107 zbior\u00f3w danych zawieraj\u0105cych \u015bcie\u017cki audio wraz z opisem tekstowym. MusicCaps zawiera adnotacje stworzone przez profesjonalnych artyst\u00f3w i zosta\u0142 udost\u0119pniony publicznie na platformie Kaggle.<\/span><\/p>\n<h2 style=\"text-align: justify\">Jukebox<\/h2>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">OpenAI w swoim wachlarzu narz\u0119dzi sztucznej inteligencji posiada r\u00f3wnie\u017c imponuj\u0105ce modele muzyczne. Opublikowany w 2020 roku Jukebox (<a href=\"https:\/\/openai.com\/research\/jukebox\" target=\"_blank\" rel=\"noopener\">WEB1<\/a>), nast\u0119pca MuseNet, tworzy pe\u0142ne utwory muzyczne warunkowane przez artyst\u0119, gatunek, a tak\u017ce opcjonalnie tekst piosenki. Podobnie jak MusicLM, model jest w stanie tak\u017ce kontynuowa\u0107 wprowadzon\u0105 do niego \u015bcie\u017ck\u0119 d\u017awi\u0119kow\u0105. Wygenerowane utwory w wielu aspektach przypominaj\u0105 muzyk\u0119 stworzon\u0105 przez cz\u0142owieka &#8211; mo\u017cna w niej zauwa\u017cy\u0107 typowe progresje akord\u00f3w czy instrumentalne sol\u00f3wki, jednak brak w niej struktury wsp\u00f3\u0142czesnych piosenek. Nie u\u015bwiadczy si\u0119 w nich wi\u0119c podzia\u0142u na zwrotki i powtarzaj\u0105ce si\u0119 refreny. OpenAI udost\u0119pni\u0142o zbi\u00f3r utwor\u00f3w wygenerowanych za pomoc\u0105 tego modelu &#8211; mo\u017cna us\u0142ysze\u0107 tam piosenki w stylu setek wsp\u00f3\u0142czesnych muzyk\u00f3w, podzielone na cztery kategorie:<\/span><\/p>\n<ul style=\"text-align: justify\">\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">warunkowane tekstem istniej\u0105cych piosenek (re-renditions),<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">warunkowane nowym tekstem (unseen lyrics),\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">warunkowane 12-sekundowym fragmentem audio (completions),<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">a tak\u017ce warunkowane nietypowymi po\u0142\u0105czeniami artyst\u00f3w z gatunkami muzycznymi (fun songs).<\/span><\/li>\n<\/ul>\n<p><iframe loading=\"lazy\" title=\"Classic Pop, in the style of Frank Sinatra - Jukebox by OpenAI\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F787823836&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600\"><\/iframe><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Model zosta\u0142 wytrenowany na zbiorze 1.2 miliona utwor\u00f3w muzycznych, reprezentowanych przez \u015bcie\u017ck\u0119 audio, tekst piosenki i metadane (nazwa artysty, gatunek albumu, rok wydania, klimat i s\u0142owa kluczowe playlist na kt\u00f3rych pojawia si\u0119 piosenka).<\/span><\/p>\n<h2 style=\"text-align: justify\">Mubert<\/h2>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Platforma Mubert (<a href=\"https:\/\/mubert.com\/\" target=\"_blank\" rel=\"noopener\">WEB2<\/a>) to rozwi\u0105zanie komercyjne, kt\u00f3re pozwala na tworzenie muzyki royalty-free na potrzeby streamer\u00f3w, tw\u00f3rc\u00f3w filmowych czy tw\u00f3rc\u00f3w aplikacji. W grudniu 2022 roku na platformie zosta\u0142 udost\u0119pniony silnik text-to-music dla wszystkich u\u017cytkownik\u00f3w (poprzednio dost\u0119pny by\u0142 jedynie poprzez API). Narz\u0119dzie to r\u00f3\u017cni si\u0119 jednak od MusicLM czy Jukebox sposobem dzia\u0142ania &#8211; wektor tag\u00f3w stworzony na podstawie dostarczonego tekstu jest u\u017cyty do wygenerowania muzyki korzystaj\u0105c z d\u017awi\u0119k\u00f3w stworzonych wcze\u015bniej przez muzyk\u00f3w. Mubert wi\u0119c nie \u201ctworzy\u201d muzyki, a produkuje kombinacj\u0119 gotowych d\u017awi\u0119k\u00f3w.<\/span><\/p>\n<p style=\"text-align: justify\">Przyk\u0142ady sampli stworzonych za pomoc\u0105 platformy Mubert, w por\u00f3wnaniu z samplami zaprezentowanymi przez MusicLM:<\/p>\n<blockquote><p><em>acoustic guitar<\/em><\/p><\/blockquote>\n<p><iframe loading=\"lazy\" title=\"Acoustic Guitar (Mubert) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1471741810&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-QU3sIRdK6Sx\"><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Acoustic Guitar (MusicLM) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1475026762&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-TQagbGLiThS\"><\/iframe><\/p>\n<blockquote><p><em>Meditative Song Calming And Soothing With Flutes And Guitars The Music Is Slow With A Focus On Creating A Sense Of Peace And Tranquility<\/em><\/p><\/blockquote>\n<p><iframe loading=\"lazy\" title=\"Meditative (Mubert) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1471742371&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-HHek5AOzg8L\"><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Medidative (MusicLM) by annan\" width=\"600\" height=\"400\" scrolling=\"no\" frameborder=\"no\" src=\"https:\/\/w.soundcloud.com\/player\/?visual=true&#038;url=https%3A%2F%2Fapi.soundcloud.com%2Ftracks%2F1475026630&#038;show_artwork=true&#038;maxheight=900&#038;maxwidth=600&#038;secret_token=s-wsnOzdw9wO9\"><\/iframe><\/p>\n<h2 style=\"text-align: justify\">Proste generatory muzyczne<\/h2>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Wyszukuj\u0105c w internecie generator\u00f3w muzyki wykorzystuj\u0105cych AI mo\u017cna natkn\u0105\u0107 si\u0119 na wiele platform podobnych do Muberta. Wi\u0119kszo\u015b\u0107 z nich skupia si\u0119 na tworzeniu muzyki royalty-free, co jest kusz\u0105c\u0105 opcj\u0105 dla tw\u00f3rc\u00f3w tre\u015bci internetowych. Platformy takie jak Soundful czy Amper Music wprost przedstawiaj\u0105 sw\u00f3j produkt jako narz\u0119dzie do prostego tworzenia muzyki, kt\u00f3ra mo\u017ce by\u0107 zamieszczona w filmikach, podcastach czy grach.\u00a0<\/span><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Pierwsza ze wspomnianych platform, Soundful, umo\u017cliwia \u0142atwe generowanie utwor\u00f3w poprzez wybranie gatunku muzyki, jego tempa i tonacji. Platforma dostarcza tak\u017ce template\u2019\u00f3w utwor\u00f3w w okre\u015blonych podgatunkach. Przeznaczenie wygenerowanej za pomoc\u0105 tego narz\u0119dzia muzyki jest wprost sugerowane na <a href=\"https:\/\/soundful.com\/\" target=\"_blank\" rel=\"noopener\">stronie domowej<\/a>\u00a0Soundful.<\/span><\/p>\n<blockquote><p><em><span style=\"font-weight: 400\">Stop worrying about copyright strikes and start discovering unique, royalty-free tracks that work perfectly with your content.<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">Stop overpaying for your music. Soundful offers an affordable way to acquire unique, studio-quality music tailored to your brands needs.<\/span><\/em><\/p><\/blockquote>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Amper Music by\u0142 natomiast pierwotnie tworzony z my\u015bl\u0105 o soundtrackach filmowych. Model jest warunkowany przez klimat, d\u0142ugo\u015b\u0107 utworu i styl. U\u017cytkownik mo\u017ce tak\u017ce podejmowa\u0107 kolejne decyzje bazuj\u0105c na wygenerowanych propozycjach.\u00a0<\/span><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Podobn\u0105 platform\u0105 jest AIVA, kt\u00f3ra dalej jest reklamowana szczeg\u00f3lnie tw\u00f3rcom filmowym. Model AIVA zosta\u0142 wytrenowany na muzyce z domeny publicznej (np. utworach Mozarta, Beethovena czy Bacha). Ponadto jest pierwszym wirtualnym kompozytorem, kt\u00f3rego prawa zosta\u0142y uznane przez spo\u0142eczno\u015b\u0107 praw autorskich Soci\u00e9t\u00e9 des Auteurs, Compositeurs et \u00c9diteurs de Musique (SACEM), co oznacza, \u017ce muzyka wygenerowana przez to narz\u0119dzie podlega ochronie praw autorskich.<\/span><\/p>\n<h1>Analizy por\u00f3wnawcze<\/h1>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Oceny i por\u00f3wnania modeli z lat od 2017 do 2021 wskazuj\u0105, \u017ce najwi\u0119cej prac opiera si\u0119 na g\u0142\u0119bokim uczeniu maszynowym, szerok\u0105 reprezentacj\u0119 maj\u0105 r\u00f3wnie\u017c rozwi\u0105zania oparte na podej\u015bciu ewolucyjnym <strong>(Civit et al., 2022)<\/strong>. Zbiory u\u017cywane do treningu znacz\u0105co r\u00f3\u017cni\u0105 si\u0119 mi\u0119dzy wyspecjalizowanymi modelami, najcz\u0119\u015bciej u\u017cywanym okaza\u0142 si\u0119 zbi\u00f3r Lakh, sk\u0142adaj\u0105cy si\u0119 z 176 tysi\u0119cy plik\u00f3w MIDI. <\/span><span style=\"font-weight: 400\">Jedynie niewielka cz\u0119\u015b\u0107 modeli zosta\u0142a wytrenowana na plikach audio, ze wzgl\u0119du na stopie\u0144 skomplikowania tej procedury. Niewiele system\u00f3w z tych lat uwzgl\u0119dnia\u0142o te\u017c aspekt emocji.\u00a0<\/span><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">W dziedzinie kompozycji czy generowania muzyki, standardowe metryki u\u017cywane do ewaluacji modeli deep learningowych nie maj\u0105 jasnego znaczenia w kontek\u015bcie teorii muzyki. Podejmowane pr\u00f3by oceny modeli opieraj\u0105 si\u0119 tak\u017ce na subiektywnym odbiorze muzyki przez ludzi. W jednej z prac<\/span><span style=\"font-weight: 400\"> poddano ewaluacji modele MusicVAE, MusicTransformer, DeepBach i Multi-Track Music Machine\u00a0<strong>(Hernandez-Olivan et al., 2022)<\/strong>. 98 uczestnik\u00f3w badania podzielonych zosta\u0142o na trzy grupy, wed\u0142ug stopnia zaawansowania ich wiedzy muzycznej. Ankietowani mieli okre\u015bli\u0107 utwory pod wzgl\u0119dem ich melodii, harmonii i rytmu, przypisa\u0107 ocen\u0119 og\u00f3ln\u0105 ca\u0142ym utworom oraz stwierdzi\u0107, czy zosta\u0142y skomponowane przez cz\u0142owieka czy maszyn\u0119. Najwy\u017cszy wynik uzyska\u0142 model DeepBach, tworz\u0105cy zgodnie ze swoj\u0105 nazw\u0105 kompozycje w stylu Bacha. Muzyka wygenerowana przez ten model uzyska\u0142a ponadto wynik wy\u017cszy ni\u017c jego zbi\u00f3r treningowy JSB Chorales.<\/span><\/p>\n<h1 style=\"text-align: justify\"><span style=\"font-weight: 400\">Prawa autorskie<\/span><\/h1>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Kwestie w\u0142asno\u015bci intelektualnej tre\u015bci stworzonych przez generatywne AI s\u0105 skomplikowane. Utwory te s\u0105 produktem wielu danych roz\u0142o\u017conych, a nast\u0119pnie z\u0142o\u017conych ponownie przez algorytmy, wi\u0119c kwestia w\u0142asno\u015bci jest tutaj trudna do rozstrzygni\u0119cia. brakuje jednoznacznych regulacji chroni\u0105cych dzie\u0142a tworzone przez AI b\u0105d\u017a z jej wsparciem. Mo\u017cna wskaza\u0107 natomiast pojedyncze sprawy s\u0105dowe w kt\u00f3rych uznane zosta\u0142y prawa autorskie do dzie\u0142a stworzonego przez cz\u0142owieka z pomoc\u0105 AI (<a href=\"https:\/\/www.forbes.com\/sites\/jacquelineschneider\/2023\/02\/28\/how-latest-ai-generated-copyright-loss-could-add-friction-to-music-and-technologys-complicated--relationship\/?sh=1a2869215131\" target=\"_blank\" rel=\"noopener\">WEB3<\/a>).\u00a0<\/span><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Tw\u00f3rcy MusicLM ju\u017c we wst\u0119pie swojej publikacji zaznaczaj\u0105, \u017ce przeprowadzili analiz\u0119 <\/span><em>memorization<\/em> <span style=\"font-weight: 400\">swojego modelu i wskazuj\u0105, \u017ce wygenerowana muzyka znacz\u0105co r\u00f3\u017cni si\u0119 od zbioru treningowego:<\/span><\/p>\n<blockquote><p><em><span style=\"font-weight: 400\">Our findings show that when feeding MuLan embeddings to MusicLM, the sequences of generated tokens significantly differ from the corresponding sequences in the training set.<\/span><\/em><\/p><\/blockquote>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Wspomniany model AIVA stanowi tutaj swego rodzaju wyj\u0105tek i interesuj\u0105cy precedens &#8211; wytrenowany na muzyce z domeny publicznej, sam generuje utwory podlegaj\u0105ce ochronie praw autorskich.\u00a0<\/span><\/p>\n<h1 style=\"text-align: justify\"><span style=\"font-weight: 400\">Przysz\u0142o\u015b\u0107 muzyk\u00f3w<\/span><\/h1>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Na podstawie przedstawionych narz\u0119dzi mo\u017cna zauwa\u017cy\u0107, \u017ce technologia automatycznego generowania muzyki zdaje si\u0119 zbli\u017ca\u0107 jako\u015bci\u0105 swoich twor\u00f3w do modeli generuj\u0105cych tekst lub grafik\u0119. Ju\u017c obecnie jest w stanie zast\u0105pi\u0107 muzyk\u00f3w w generowaniu prostej muzyki t\u0142a, co w szczeg\u00f3lno\u015bci mo\u017ce zach\u0119ca\u0107 tw\u00f3rc\u00f3w tre\u015bci internetowych. Opublikowane dotychczas modele nie s\u0105 jednak w stanie wygenerowa\u0107 chocia\u017cby piosenki pop z wokalem nieodr\u00f3\u017cnialnym od ludzkiego. Trudno\u015bci w stworzeniu takiego narz\u0119dzia zdaj\u0105 si\u0119 mie\u0107 przyczyn\u0119 mi\u0119dzy innymi w nietrywialnym problemie ewaluacji wygenerowanych utwor\u00f3w. Wykorzystanie w ocenie zasob\u00f3w ludzkich jest kosztowne, szczeg\u00f3lnie w przypadku gdy powstaje potrzeba zasi\u0119gni\u0119cia opinii profesjonalnych muzyk\u00f3w.\u00a0<\/span><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Mo\u017cna wi\u0119c stwierdzi\u0107, mimo \u017ce AI zast\u0105pi muzyk\u00f3w w tworzeniu muzyki prostej, u\u017cywanej g\u0142\u00f3wnie do cel\u00f3w komercyjnych, arty\u015bci mog\u0105 wr\u0119cz skorzysta\u0107 z mocy sztucznej inteligencji do wsparcia swojego procesu kreatywnego. W przypadku<\/span> <em>creative block<\/em> artysty, <span style=\"font-weight: 400\">modele mog\u0105 podpowiedzie\u0107 dalszy ci\u0105g utworu, a tak\u017ce pokaza\u0107 czy zmiana stylu piosenki uczyni j\u0105 bardziej chwytliw\u0105.\u00a0<\/span><\/p>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Pojawiaj\u0105 si\u0119 tak\u017ce obawy, \u017ce wykorzystanie sztucznej inteligencji wp\u0142ynie negatywnie na ludzk\u0105 kreatywno\u015b\u0107, a muzyka zostanie zdegenerowana do bezdusznych d\u017awi\u0119k\u00f3w &#8211; wizja niczym z utworu <\/span><i><span style=\"font-weight: 400\">The Sound Of Muzak<\/span><\/i><span style=\"font-weight: 400\"> zespo\u0142u <\/span><i><span style=\"font-weight: 400\">Porcupine Tree<\/span><\/i><span style=\"font-weight: 400\">.<\/span><\/p>\n<blockquote><p><em><span style=\"font-weight: 400\">Now the sound of music<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">Comes in silver pills<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">Engineered to suit you<\/span><\/em><\/p>\n<p><em><span style=\"font-weight: 400\">Building cheaper thrills<\/span><\/em><\/p><\/blockquote>\n<p style=\"text-align: justify\"><span style=\"font-weight: 400\">Imponuj\u0105ca szybko\u015b\u0107 rozwoju modeli AI wskazuje, \u017ce o tym, czy w tym przypadku szklanka jest do po\u0142owy pusta czy pe\u0142na dowiemy si\u0119 ju\u017c w niedalekiej przysz\u0142o\u015bci.<\/span><\/p>\n<h1 style=\"text-align: justify\">\u0179r\u00f3d\u0142a<\/h1>\n<ul>\n<li style=\"text-align: justify\">\n<div style=\"text-align: left\">Agostinelli, A., Denk, T. I., Borsos, Z., Engel, J., Verzetti, M., Caillon, A., \u2026 Frank, C. (2023). MusicLM: Generating Music From Text. <i>ArXiv [Cs.SD]<\/i>. Retrieved from http:\/\/arxiv.org\/abs\/2301.11325<\/div>\n<\/li>\n<li style=\"text-align: left\">Strona OpenAI opisuj\u0105ca model Jukebox <a href=\"https:\/\/openai.com\/research\/jukebox\" target=\"_blank\" rel=\"noopener\">https:\/\/openai.com\/research\/jukebox<\/a><\/li>\n<li style=\"text-align: left\">Strona projektu Mubert <a href=\"https:\/\/mubert.com\/\" target=\"_blank\" rel=\"noopener\">https:\/\/mubert.com\/<\/a><\/li>\n<li style=\"text-align: left\">Civit, M., Civit-Masot, J., Cuadrado, F., &amp; Escalona, M. J. (2022). A systematic review of artificial intelligence-based music generation: Scope, applications, and future trends.\u00a0<i>Expert Systems with Applications<\/i>,\u00a0<i>209<\/i>, 118190. doi:10.1016\/j.eswa.2022.118190<\/li>\n<li style=\"text-align: left\">Hernandez-Olivan, C., Puyuelo, J. A., &amp; Beltran, J. R. (2022). Subjective Evaluation of Deep Learning Models for Symbolic Music Composition.\u00a0<i>ArXiv [Cs.SD]<\/i>. Retrieved from http:\/\/arxiv.org\/abs\/2203.14641<\/li>\n<li style=\"text-align: left\">Artyku\u0142 o problemach z prawami autorskimi do tre\u015bci wygenerowanych przez AI, opublikowany na stronie Forbes <a href=\"https:\/\/www.forbes.com\/sites\/jacquelineschneider\/2023\/02\/28\/how-latest-ai-generated-copyright-loss-could-add-friction-to-music-and-technologys-complicated--relationship\" target=\"_blank\" rel=\"noopener\">https:\/\/www.forbes.com\/sites\/jacquelineschneider\/2023\/02\/28\/how-latest-ai-generated-copyright-loss-could-add-friction-to-music-and-technologys-complicated&#8211;relationship<\/a><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>\u015awiat muzyki to obszar, w kt\u00f3rym sztuczna inteligencja nie wybrzmia\u0142a jeszcze tak dono\u015bnie jak w przypadku sztuki graficznej. W ostatnich miesi\u0105cach Google opublikowa\u0142o nowy model AI &#8211; MusicLM. Wyprzedzaj\u0105c swoich poprzednik\u00f3w takich jak Jukebox czy Mubert model ten mo\u017ce postawi\u0107 muzykom podobne pytania, jakie DALLE i Midjourney postawi\u0142y niedawno tw\u00f3rcom graficznym. Kwestia praw autorskich i [&hellip;]<\/p>\n","protected":false},"author":143,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[225,1],"tags":[15,231,232,230,228,229,151],"class_list":["post-2919","post","type-post","status-publish","format-standard","hentry","category-agh-2022-23","category-uncategorized","tag-ai","tag-jukebox","tag-mubert","tag-musiclm","tag-muzyka","tag-openai","tag-sztuka"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/2919","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/143"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=2919"}],"version-history":[{"count":19,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/2919\/revisions"}],"predecessor-version":[{"id":3008,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/2919\/revisions\/3008"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=2919"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=2919"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=2919"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}