Współczesna scena artystyczna staje się poligonem doświadczalnym dla nowych form relacji człowiek-maszyna, w której tradycyjne role twórcy i narzędzia ulegają całkowitemu zatarciu. Live-coding to praktyka, która polega na pisaniu kodu źródłowego „na żywo” na oczach widzów, przy czym efekty tych zmian są widoczne lub słyszalne natychmiast w postaci efektów wizualnych bądź muzyki. Najczęściej, w życiu codziennym można się z nim spotkać podczas rekrutacji na stanowiska techniczne, gdzie rekruter ocenia sposób myślenia, komunikację oraz odporność na stres kandydata. Live-coding, rozumiany jako performatywne pisanie kodu jako dziedziny sztuki, ewoluuje w stronę systemów autonomicznych, gdzie modele generatywne i agenci sztucznej inteligencji stają się pełnoprawnymi partnerami artysty, zdolnymi do improwizacji i podejmowania decyzji estetycznych. Niniejszy wpis poddaje krytycznej analizie przejście od narzędziowej roli AI do statusu agenta (agency), badając przy tym palące problemy etyczne: od braku transparentności głębokich sieci neuronowych („black box”), po kwestie prywatności i anonimizacji danych publiczności wykorzystywanych w czasie rzeczywistym w ramach interaktywnych instalacji i performansów.
Wstęp: Kod jako żywa i ewolucyjna materia
Live-coding wyłonił się z radykalnej potrzeby demistyfikacji procesów cyfrowych. Zgodnie z manifestem organizacji TOPLAP (zajmującej się promocją live-codingu w kontekście tworzenia muzyki i wizualizacji w czasie rzeczywistym), proces tworzenia nie powinien być ukryty przed widzem; wręcz przeciwnie – kod źródłowy staje się elementem scenografii i narracji. Tradycyjnie polegało to na rzutowaniu ekranu programisty, co miało na celu pokazanie, że muzyka elektroniczna nie jest odtwarzaniem gotowych plików, lecz żywym procesem myślowym. Jednak wraz z gwałtowną implementacją systemów uczenia maszynowego (Machine Learning), pojęcie „żywotności” (liveness) kodu nabiera zupełnie nowego, niemal biologicznego znaczenia. Performer wpisuje fragment kodu (np. linię basu w TidalCycles). AI analizuje ten wzorzec i generuje „odpowiedź” – kontrapunkt lub wariację, której artysta nie zaprogramował bezpośrednio. Artysta nie manipuluje już tylko deterministycznymi pętlami, które są w pełni pod jego kontrolą, lecz wchodzi w złożony dialog z systemem, który posiada własną, wyuczoną estetykę i potrafi zaskoczyć samego tworzącego.
Współczesny performance algorytmiczny staje się formą „cyborgizacji” sztuki. Jak zauważa Nick Bostrom, transhumaniści postrzegają naturę ludzką jako projekt w toku (work-in-progress), który możemy i powinniśmy udoskonalać za pomocą technologii. W kontekście sceny, to udoskonalenie objawia się jako rozszerzenie zdolności kognitywnych artysty o moc obliczeniową AI, co pozwala na operowanie na poziomach złożoności niedostępnych dla nieuzbrojonego ludzkiego mózgu. Postęp technologiczny pozwala nam wykraczać poza biologiczne ograniczenia, takie jak krótki czas życia czy limitowana moc obliczeniowa mózgu, otwierając przestrzeń dla „postludzkich” form ekspresji.
Podstawy teoretyczne: Od instrumentu do autonomicznego agenta
W literaturze przedmiotu kluczowym pojęciem, które pozwala zrozumieć tę zmianę, jest „Machine Musicianship”. Rowe (2004) sugeruje, że maszyny mogą być projektowane nie tylko jako przekaźniki sygnałów, ale jako systemy zdolne do rozumienia struktur muzycznych i interakcji z ludzkimi wykonawcami w sposób zbliżony do żywych muzyków. W nurcie live-codingu, Anna Xambó (2021) wskazuje na koncepcję „wirtualnych agentów”, którzy nie tylko asystują, ale aktywnie współtworzą utwór, często posiadając pewien stopień autonomii w interpretacji kodu. Jak pokazują Fabrizo Festa oraz Dario Mattia systemy sztucznej inteligencji mogą też wykorzystywać dane biometryczne publiczności, a następnie przekształcać je na muzykę. Opracowany przez nich system SCHI (Sonify Collective Human Inteligence) pozwala na wykorzystanie czujników GSR oraz pulsu do określenia nastroju słuchających i dostosowania dźwięku.
Niezwykle istotne są tu ramy teoretyczne Diapoulisa (2023), który łączy pojęcie liveness z „machine listening” (słuchaniem maszynowym). Aby system AI na scenie mógł być uznany za etyczny i prawdziwie responsywny, musi on posiadać zdolność do aktywnej percepcji otoczenia. Proces ten opiera się na ekstrakcji cech (feature extraction), gdzie system analizuje w czasie rzeczywistym parametry takie jak głośność (RMS), barwa (spectral centroid) czy gęstość zdarzeń dźwiękowych. Jeśli algorytm generuje muzykę w próżni, bez odniesienia do akustyki sali, reakcji innych wykonawców czy energii tłumu, traci swój walor performatywny. Staje się wtedy jedynie wyrafinowanym, ale martwym odtwarzaczem złożonych wzorców statystycznych, co stoi w sprzeczności z ideą żywego performansu.
Przykładem takiego zaawansowanego agenta jest system MASOM (Musical Agent based on Self-Organizing Maps). Wykorzystuje on mapy samoorganizujące się (SOM; zwane także Mapami Kohonena) oraz modele Markowa do analizy i generowania muzyki w czasie rzeczywistym, ucząc się stylu artysty i potrafiąc na niego odpowiadać w sposób improwizowany. MASOM nie tylko replikuje dane, ale dzięki algorytmom afektywnym (affective computing) próbuje modelować stany emocjonalne i napięcia wewnątrz struktury muzycznej. To tutaj pojawia się granica między „narzędziem” a „partnerem”. Partner AI nie tylko wykonuje polecenie, ale interpretuje intencję, co rodzi pytania o to, gdzie kończy się wola człowieka, a zaczyna inwencja maszyny.
Problem „Czarnej Skrzynki” i anatomia inteligencji
Etyka sztucznej inteligencji w sztuce często pomija kluczowy aspekt, jakim jest „wyjaśnialność” (Explainable AI – XAI). Kiedy performer korzysta z głębokich sieci neuronowych, takich jak modele GAN (Generative Adversarial Networks) czy Transformery, publiczność – mimo widocznego na ekranie kodu – często nie jest w stanie pojąć, dlaczego maszyna podjęła konkretną decyzję estetyczną. Kod staje się fasadą, za którą kryją się miliardy parametrów wag sieci neuronowej, których nie da się „przeczytać” tak, jak prostej pętli w języku TidalCycles.
Przykładowe nagranie pokazujące działanie TidalCycles
Pojawia się tu istotny problem społeczny: jeśli proces twórczy jest ukryty w nieprzeniknionych warstwach sieci neuronowej, to czy nadal mamy do czynienia z „transparentnością”, która była fundamentem ruchu live-coding? Chicau i Reus (2022) w swoim projekcie Anatomies of Intelligence sugerują, że musimy poddawać algorytmy „performatywnej sekcji zwłok” (dissection). Zamiast prezentować AI jako magię, artysta ma obowiązek pokazywać jej ograniczenia, błędy i strukturę danych treningowych. Takie podejście pozwala na krytyczną analizę „ciała” algorytmicznego i ujawnienie ukrytych w nim uprzedzeń (bias).
Bostrom ostrzega, że nasze ograniczenia poznawcze mogą więzić nas w swoistej „jaskini platońskiej”, gdzie widzimy jedynie uproszczone cienie prawdziwej rzeczywistości obliczeniowej. W performansie AI, tą jaskinią jest interfejs użytkownika, który ukrywa prawdziwą naturę transformacji danych przed intelektem artysty i widza. Brak zrozumienia wewnętrznych mechanizmów AI może prowadzić do zjawiska „technologicznego szamanizmu”, gdzie wykonawca i publiczność jedynie przypisują maszynie intencje, których ta nie posiada.
Często rozwiązaniem problemu interpretowalności jest wizualizacja przestrzeni ukrytych (latent spaces), co pozwala na pokazanie jak AI nawiguje pomiędzy różnymi brzmieniami. Niektórzy artyści z kolei w pełni akceptują złożoność i trudności w wytłumaczeniu decyzji algorytmów czyniąc je integralną częścią występu
Analiza krytyczna: Autorstwo, odpowiedzialność i homogenizacja sztuki
Wprowadzenie AI na scenę wymusza ponowne zdefiniowanie pojęć autorstwa i odpowiedzialności. Jeśli system MASOM wygeneruje dźwięk o częstotliwościach wywołujących fizyczny dyskomfort lub lęk u słuchaczy, kto ponosi za to winę? Czy jest to programista, który napisał algorytm? Czy może twórcy zbioru danych (dataset), na którym system się uczył? A może sama maszyna, której przyznaliśmy status autonomicznego agenta?
Polemizując z huraoptymistycznym podejściem do technologii, należy zauważyć ryzyko homogenizacji sztuki. Modele generatywne ze swej natury dążą do uśredniania – uczą się na tym, co już istnieje, i generują wyniki statystycznie najbardziej prawdopodobne. W live-codingu, który historycznie był przestrzenią błędu, glitchu i radykalnego eksperymentu, AI może paradoksalnie stać się siłą konserwatywną, „wygładzającą” artystyczne anomalie w stronę tego, co system uznaje za „poprawną muzykę”. Istnieje realne zagrożenie, że zamiast rozszerzać ludzką kreatywność, zaczniemy ją ograniczać do ram tego, co algorytm jest w stanie przetworzyć bez generowania błędów.
Ponadto, interakcja z publicznością w systemach AI często opiera się na zbieraniu danych biometrycznych lub behawioralnych. Jak zauważa Sang Won Lee (2016), partycypacja publiczności jest kluczowa dla żywotności kodu i poczucia wspólnoty, ale rodzi ona wyzwania etyczne związane z inwigilacją. Rejestracja ruchu, analiza natężenia krzyku czy analiza wizualna tłumu stawiają pytania o granice prywatności w przestrzeni publicznej. Czy widzowie w klubie wyrażają świadomą zgodę na to, by ich ruchy czy poziom stresu stawały się paliwem dla algorytmu generatywnego? Brak jasnych regulacji i transparentności w tym zakresie może prowadzić do nadużyć danych w celach komercyjnych lub profilowania odbiorców.
Przegląd systemów partycypacyjnych i Interactive Machine Learning
Współczesna praktyka performatywna oferuje szereg rozwiązań mających na celu etyczne zaangażowanie publiczności. Jednym z najważniejszych narzędzi w tym obszarze jest Wekinator, stworzony przez Rebeccę Fiebrink. Jest to system do interaktywnego uczenia maszynowego (Interactive Machine Learning – IML), który pozwala artystom na mapowanie gestów, dźwięków czy innych sygnałów wejściowych na parametry syntezy w czasie rzeczywistym. Wekinator umożliwia „trenowanie” systemu przez przykład, co pozwala na tworzenie intuicyjnych, niemal fizycznych relacji między ruchem a generowanym dźwiękiem bez konieczności pisania skomplikowanego kodu matematycznego.
W kontekście partycypacji, badacze tacy jak Sang Won Lee proponują systemy, w których publiczność staje się „żywym parametrem”. Wykorzystywane techniki obejmują:
- Analizę natężenia dźwięku (RMS) tłumu do sterowania gęstością rytmiczną.
- Wykorzystanie Optical Flow (przepływu optycznego) do anonimowej analizy dynamiki ruchu w sali bez identyfikacji poszczególnych osób.
- Głosowanie w czasie rzeczywistym za pomocą urządzeń mobilnych na kierunki ewolucji kodu.
Podejścia te dążą do stworzenia „zbiorowego sprawstwa” (shared agency), gdzie granica między performerem a widownią ulega zatarciu, a system AI staje się medium pośredniczącym w tej wymianie. Jednakże, aby taka interakcja była etyczna, niezbędna jest wizualna informacja zwrotna – widz musi rozumieć, jak jego działanie wpływa na system.
Porównanie modeli interakcji w performansi algorytmicznym
Aby lepiej zobrazować ewolucję roli publiczności i technologii, przygotowałem poniższe zestawienie:
| Model | Rola Technologii | Status Publiczności | Główne Wyzwanie Etyczne |
|---|---|---|---|
| Tradycyjny Live-coding | Narzędzie (Instrument) | Obserwator procesu | Transparentność kodu |
| Agentowy (np. MASOM) | Partner (Agent) | Słuchacz dialogu | Autorstwo i „Black Box” |
| Interaktywny (Wekinator) | Medium uczenia się | Współtwórca (Parametr) | Prywatność i zgoda |
Multimedia i Analiza Case Study
Poniżej znajduje się prezentacja systemu MASOM, który stanowił inspirację dla rozwoju agentów muzycznych. Warto zwrócić uwagę na sposób, w jaki agent „słucha” i odpowiada na improwizację.
Analiza wideo: Prezentacja systemu MASOM (Musical Agent based on Self-Organizing Maps). Widoczna jest interakcja agenta z wykonawcą w czasie rzeczywistym. System analizuje strukturę audio i generuje odpowiedzi oparte na wyuczonych modelach estetycznych, wykorzystując mechanizmy „machine listening” do zachowania żywotności performansu. Pokazuje to ewolucję od prostych automatów do złożonych partnerów algorytmicznych.
Konkluzja: W stronę etycznego współistnienia
Sztuczna inteligencja w live-codingu nie może i nie powinna być traktowana jako „magiczne pudełko” rozwiązujące problemy kreatywne za artystę. Wyzwania etyczne – od ochrony prywatności danych biometrycznych po walkę z algorytmiczną nieprzejrzystością – wymagają od współczesnych twórców nie tylko biegłości w pisaniu kodu, ale przede wszystkim głębokiej wrażliwości społecznej. Systemy oparte na interaktywnym uczeniu maszynowym, takie jak te wykorzystujące Wekinatora, pokazują, że możliwe jest stworzenie technologii, która nie wyobcowuje, lecz integruje społeczność wokół wspólnego doświadczenia estetycznego.
Przejście od człowieka-programisty do duetu człowiek-AI, wspieranego przez aktywną publiczność, to nie tylko zmiana techniczna, ale fundamentalna rewolucja w sposobie rozumienia sztuki. Musimy jednak pamiętać, by w pogoni za postludzkimi możliwościami, o których pisze Bostrom (2005), nie zgubić tego, co w sztuce najbardziej ludzkie: potrzeby zrozumienia i autentycznego kontaktu z drugim człowiekiem, nawet jeśli pośredniczy w nim algorytm. Ostatecznym celem nie powinno być zastąpienie twórcy maszyną, lecz eksploracja nowych, hybrydowych form piękna, które zachowują transparentność i szacunek dla podmiotowości wszystkich uczestników performansu.
Literatura
Rowe, R. (2004). Machine musicianship. MIT press.
Bostrom, N. (2005). Transhumanist values. Journal of Philosophical Research, 30(Supplement), 3-14.
Chicau, J., & Reus, J. (2023). Anatomical Intelligence: Live coding as performative dissection. Organised Sound, 28(2), 290-304.
Diapoulis, G. (2023). Liveness and machine listening in musical live coding: A conceptual framework for designing agent-based systems. Proceedings of the 4th Conference on AI Music (AIMC 2023).
Dziwis, D. (2021). The Anatomical Intelligence: Live Coding as Performative Dissection. Proceedings of the AI Music Conference (AIMC 2021).
Fiebrink, R., & Cook, P. R. (2010). The Wekinator: A system for real-time, interactive machine learning in music. Proceedings of the eleventh international society for music information retrieval conference (ISMIR 2010).
Lee, S. W., & Essl, G. (2016). Live Coding the Audience Participation. Proceedings of International Conference on Live Coding.
Tatar, K., & Pasquier, P. (2017). MASOM: A musical agent architecture based on self-organizing maps. Proceedings of the International Workshop on Musical Metacreation.
Dario M., Fabrizio F. (2025). UMAP ’25: 33rd ACM Conference on User Modeling, Adaptation and Personalization. Sonify Collective Human Intelligence: A Biometric Data Approach to Real-time Sound Design in HCI.
(WEB1) TOPLAP Manifesto Draft. https://toplap.org/wiki/ManifestoDraft