Home » Socjologia UJ 2025/26 » Wojny autonomicznych dronów. Społeczne postrzeganie autonomicznych systemów bojowych oraz autonomicznych botów – analiza opinii publicznej na temat dopuszczalności użycia sztucznej inteligencji w działaniach wojennych

Wojny autonomicznych dronów. Społeczne postrzeganie autonomicznych systemów bojowych oraz autonomicznych botów – analiza opinii publicznej na temat dopuszczalności użycia sztucznej inteligencji w działaniach wojennych

Spread the love

Rozwój systemów sztucznej inteligencji (SI) w ostatnich latach istotnie zmienił sposób prowadzenia działań zbrojnych, zarówno na poziomie taktycznym, jak i strategicznym. Autonomiczne drony bojowe, systemy rozpoznania oparte na uczeniu maszynowym, symulacje bitewne oraz narzędzia analizy danych stały się integralnym elementem współczesnego pola walki. Równolegle do tej transformacji technologicznej rozwija się intensywna debata etyczna dotycząca dopuszczalności użycia SI w wojnie, odpowiedzialności za decyzje podejmowane przez algorytmy oraz ryzyka dehumanizacji przemocy.

Niezwyciężona, ale jaka?

Znaczna część tej debaty prowadzona jest jednak w ramach refleksji normatywnej, filozoficznej lub prawnej, często oderwanej od doświadczeń osób bezpośrednio związanych z praktyką wojskową. W konsekwencji powstaje napięcie pomiędzy humanistycznymi rozważaniami nad etyką wojny, prowadzonymi z komfortowej pozycji profesorskich foteli i studenckich biurek, a pragmatycznym, instrumentalnym podejściem charakterystycznym dla środowisk wojskowych. Niniejszy tekst ma na celu częściowe wypełnienie tej luki poprzez jakościową analizę opinii wojskowych, byłych wojskowych oraz trenerów strzelectwa wojskowego na temat użycia systemów sztucznej inteligencji w działaniach wojennych.

Już w literackiej wizji Stanisława Lema zawarta została intuicja, która z dzisiejszej perspektywy okazuje się zaskakująco trafna (Lem, 2024). W wydanej w 1964 roku książce Niezwyciężony autor konfrontuje ludzi dysponujących ogromnym, potężnym technologicznie sprzętem wojskowym z przeciwnikiem, który pozbawiony jest zarówno świadomości, jak i centralnego dowodzenia. Rój drobnych, autonomicznych maszyn (dziś powiedzielibyśmy: dronów) nie wygrywa dzięki sile ognia, przewadze informacyjnej czy ponadprzeciętnie wysokiej inteligencji rozumianej na sposób ludzki, lecz dzięki masowości, zdolności adaptacji oraz obojętności wobec strat. Kluczowe w tej scenie nie jest samo zwycięstwo maszyn, lecz sposób, w jaki całkowicie podważają one klasyczne wyobrażenia o wojnie. Trudno mówić tu o starciu armii, jakiejkolwiek hierarchii dowodzenia czy możliwości wskazania osób odpowiedzialnych za stosowanie przemocy. Lem pokazuje konflikt, w którym nie sposób wskazać pojedynczego sprawcy, decyzji ani intencji. Przemoc staje się procesem systemowym, naturalnym, z normatywnego punktu widzenia: przeźroczystym. Z tej perspektywy porażka ludzi nie wynika z technologicznego zacofania, lecz z przywiązania do kategorii sensu, kontroli i moralnego sprawstwa, które w starciu z rozproszonymi, autonomicznymi systemami tracą swoją operacyjność (Lem, 2024).

Niezwyciężony - Wydawnictwo Literackie

Ta literacka intuicja stanowi użyteczne tło interpretacyjne dla niniejszego badania, które nie podejmuje próby normatywnej oceny sztucznej inteligencji w wojnie, lecz rekonstruuje sposoby, w jakie osoby bezpośrednio związane z praktyką wojskową postrzegają rolę autonomicznych systemów, ich skuteczność oraz granice sensowności etycznych rozważań w realiach współczesnego konfliktu zbrojnego. Celem badania nie jest rozstrzyganie, czy użycie sztucznej inteligencji w wojnie jest moralnie dopuszczalne, lecz rekonstrukcja sposobów, w jakie aktorzy posiadający doświadczenie militarne postrzegają rolę SI, jej ograniczenia oraz znaczenie debat etycznych w kontekście realnych konfliktów zbrojnych, ze szczególnym uwzględnieniem wojny w Ukrainie.

Ramy teoretyczne i kontekst problemu

W literaturze przedmiotu autonomiczne systemy bojowe najczęściej analizowane są w kontekście trzech powiązanych ze sobą zagadnień: autonomii technologicznej, odpowiedzialności moralnej oraz dehumanizacji wojny (Petraeus & Roberts 2024). Autonomia systemów sztucznej inteligencji bywa rozumiana wąsko, to jest: jako zdolność do wykonywania określonych zadań bez bieżącej kontroli człowieka; lub szeroko, a więc jako potencjalna zdolność do samodzielnego podejmowania decyzji o użyciu przemocy. To drugie ujęcie budzi największe kontrowersje etyczne i stanowi punkt odniesienia dla postulatów zakazu tak zwanych „killer robots” (Petraeus & Roberts 2024).

Jednocześnie w badaniach nad wojną coraz częściej pojawia się pojęcie delegowania odpowiedzialności (moral outsourcing), opisujące proces przenoszenia ciężaru decyzyjnego z człowieka na systemy techniczne (Lindgren, 2023). W przypadku sztucznej inteligencji w wojsku prowadzi to do pytań o to, kto ponosi odpowiedzialność za błędne decyzje algorytmu: programista, dowódca, państwo czy sama technologia jako „aktor społeczny”, rozumiany tutaj w ujęciu Latourowskim (Latour, 2010).

Jak już wspomnianio, istotnym wątkiem jest dehumanizacja wojny. Proces ten jest rozumiany tutaj zarówno jako oddalenie sprawcy od skutków przemocy, jak i redukcja przeciwnika do obiektu danych. W tym sensie autonomiczne drony czy systemy rozpoznania oparte na SI mogą jednocześnie zwiększać skuteczność militarną i osłabiać tradycyjne mechanizmy moralnej kontroli przemocy.

Niniejsze badanie konfrontuje te wątki teoretyczne z perspektywą praktyków wojskowych, dla których wojna jest przede wszystkim przestrzenią chaosu, niepewności i presji decyzyjnej, a nie abstrakcyjnym polem rozważań normatywnych.

Metodologia badania i dobór próby

Badanie miało charakter jakościowy i eksploracyjny. Zastosowaną metodą był wywiad swobodny, umożliwiający respondentom swobodne formułowanie opinii oraz odnoszenie się do własnych doświadczeń zawodowych.

Próba została dobrana celowo i obejmowała pięć osób: wojskowych czynnych zawodowo, byłych wojskowych oraz trenerów strzelectwa wojskowego. Wśród wojskowych byli to: były operator wojsk specjalnych, żołnierz piechoty zmotoryzowanej oraz pilot helikopterów. Respondenci posiadali doświadczenie związane z klasycznymi oraz nowoczesnymi technologiami wojskowymi, szkoleniem bojowym lub analizą współczesnych konfliktów zbrojnych. Badanie nie miało charakteru reprezentatywnego; jego celem była eksploracja dominujących sposobów myślenia w określonym środowisku zawodowym.

Przebieg wywiadów

Wywiady przeprowadzono w formie online. Każdy wywiad trwał około 15 minut. Ze względu na charakter badania oraz zgodę respondentów, rozmowy nie były nagrywane. Zamiast tego sporządzano szczegółowe notatki badawcze. Taka forma ogranicza możliwość analizy językowej, lecz pozwala na rekonstrukcję sensów i głównych wątków wypowiedzi.

Analiza materiału

Materiał empiryczny poddano jakościowej analizie treści. Na podstawie notatek z wywiadów wyodrębniono powtarzające się motywy, argumenty oraz schematy interpretacyjne. Analiza miała charakter indukcyjny, kategorie analityczne wyłaniały się z materiału empirycznego, a nie zostały narzucone z góry, zgodnie z postulatami teorii ugruntowanej Glasera i Straussa (Strauss & Glaser, 2009).

Wyniki badania

1. Marginalizacja rozważań etycznych

Jednym z najsilniej obecnych i najbardziej spójnych motywów w wypowiedziach respondentów była wyraźnie dystansująca, a momentami wręcz sceptyczna postawa wobec humanistycznych debat etycznych dotyczących wojny oraz zastosowania sztucznej inteligencji w działaniach zbrojnych. Respondenci wielokrotnie podkreślali, że tego rodzaju rozważania,  formułowane najczęściej w przestrzeni akademickiej, eksperckiej lub medialnej, mają ograniczoną wartość poznawczą w realiach pola walki, gdzie decyzje podejmowane są w warunkach skrajnej niepewności, presji czasowej oraz fragmentarycznej informacji. Etyka, rozumiana jako system abstrakcyjnych norm i zasad, była w ich narracjach lokowana raczej w „gabinecie” niż w sytuacji bojowej. Prowadziło to niekiedy do podkreślania przepaści pomiędzy teoretycznymi modelami moralnego namysłu a doświadczeniem osób bezpośrednio zaangażowanych w działania militarne.

Jednocześnie dystans ten nie przyjmował formy całkowitego odrzucenia norm moralnych czy cynicznego relatywizmu. Respondenci nie kwestionowali samej idei odpowiedzialności czy etycznych ograniczeń wojny, lecz opisywali proces ich podporządkowania logice skuteczności operacyjnej i przetrwania. W ich wypowiedziach pojawiał się obraz wojny jako sytuacji granicznej, w której klasyczne kategorie etyczne ulegają nie tyle zanegowaniu, ile znacznemu uproszczeniu i instrumentalizacji. Moralność nie znika, lecz zostaje sprowadzona do kilku podstawowych imperatywów: ochrony własnych żołnierzy, realizacji zadania oraz minimalizacji strat po własnej stronie. Etyka, chociaż niezapomniana, ustępuje miejsca efektywności.

W tym kontekście szczególnie wyraźnie zaznaczała się różnica pomiędzy abstrakcyjnymi rozważaniami prowadzonymi z perspektywy zewnętrznej a refleksją osób, których te rozważania bezpośrednio dotyczą. Respondenci opisywali tę różnicę jako głęboką i trudną do zasypania, wskazując, że wiele debat etycznych nie uwzględnia strukturalnych cech wojny, takich jak chaos, asymetria informacji czy nieodwracalność decyzji. Z ich perspektywy etyka formułowana poza kontekstem praktyki bojowej ryzykuje utratę kontaktu z rzeczywistością, w której sztuczna inteligencja funkcjonuje nie jako autonomiczny podmiot moralny, lecz jako narzędzie używane w ekstremalnych warunkach.

2. Wojna w Ukrainie jako punkt odniesienia

Wypowiedzi wszystkich respondentów w sposób jednoznaczny odwoływały się do wojny w Ukrainie jako do empirycznego punktu odniesienia potwierdzającego przełomową rolę systemów sztucznej inteligencji we współczesnych konfliktach zbrojnych. Konflikt ten był opisywany nie jako hipotetyczny scenariusz przyszłych wojen, lecz jako rzeczywiste pole testowe, na którym rozwiązania oparte na algorytmach uczenia maszynowego zostały wdrożone na szeroką skalę i w warunkach pełnoskalowych działań bojowych. Respondenci wskazywali, że to właśnie doświadczenia z Ukrainy pozwalają ocenić funkcjonowanie SI nie w warunkach symulacyjnych czy laboratoryjnych, lecz w realiach nieustannego zagrożenia, strat oraz konieczności szybkiego reagowania.

Szczególną uwagę zwracano na wykorzystanie dronów wspieranych algorytmami rozpoznania obrazu, analizy trajektorii lotu oraz identyfikacji potencjalnych celów. Respondenci opisywali te systemy jako kluczowe narzędzie rozpoznania i wsparcia ogniowego, umożliwiające szybsze wykrywanie przeciwnika oraz skrócenie czasu reakcji. W tym kontekście sztuczna inteligencja nie była postrzegana jako futurystyczna, autonomiczna broń przyszłości, lecz jako zbiór konkretnych funkcji technicznych, już obecnych i operacyjnie wykorzystywanych na współczesnym polu walki. Taki sposób narracji wyraźnie odróżniał perspektywę respondentów od popularnych, medialnych wyobrażeń SI jako jakościowo nowego aktora wojny.

Respondenci podkreślali również, że kluczowe znaczenie miała integracja systemów opartych na sztucznej inteligencji z relatywnie tanimi, masowo dostępnymi platformami dronowymi. W ich ocenie to właśnie ta kombinacja, a więc zaawansowanego oprogramowania oraz (relatywnie) taniego sprzętu, doprowadziła do istotnej redefinicji sposobu prowadzenia walki. Zmianie uległy nie tylko metody rozpoznania czy naprowadzania ognia, lecz także tempo działań oraz struktura podejmowania decyzji. W narracjach respondentów wojna w Ukrainie jawiła się tym samym jako przykład konfliktu,w którym sztuczna inteligencja została włączona w codzienną praktykę bojową, a nie potraktowana jako eksperymentalny dodatek czy technologiczna ciekawostka.

3. SI jako element szerszego ekosystemu wojny

Powracającym wątkiem w wypowiedziach respondentów było wyraźne rozszerzenie rozumienia roli sztucznej inteligencji poza wąsko pojmowane autonomiczne drony bojowe. Respondenci zwracali uwagę, że koncentracja debaty publicznej i akademickiej niemal wyłącznie na systemach uzbrojenia prowadzi do uproszczonego obrazu cyfrowej transformacji wojny. W ich narracjach SI była ujmowana znacznie szerzej, jako zbiór narzędzi wspierających różne etapy planowania i prowadzenia działań zbrojnych, a nie jedynie jako technologia bezpośrednio związana z użyciem siły.

Szczególne znaczenie przypisywano systemom symulacyjnym oraz tak zwanym grom wojennym, wykorzystywanym zarówno w szkoleniu, jak i w przygotowaniu scenariuszy operacyjnych. Respondenci opisywali te narzędzia jako środowiska umożliwiające testowanie wariantów działań, analizę potencjalnych konsekwencji decyzji oraz ocenę ryzyka bez konieczności angażowania realnych zasobów. W tym kontekście sztuczna inteligencja była postrzegana przede wszystkim jako mechanizm porządkujący i przetwarzający duże ilości danych, wspierający proces decyzyjny poprzez dostarczanie rekomendacji, symulacji i prognoz, a nie jako jego substytut czy autonomiczny decydent.

Takie ujęcie prowadziło do postrzegania autonomicznych systemów bojowych jedynie jako jednego z elementów znacznie szerszego ekosystemu cyfryzacji wojny. Respondenci wskazywali, że SI przenika obecnie obszary logistyki, szkolenia, rozpoznania oraz analizy strategicznej, wpływając na sposób organizacji sił zbrojnych i zarządzania zasobami. W tej perspektywie wojna staje się procesem coraz bardziej opartym na danych, symulacjach i analizie predykcyjnej, przy czym kluczowa rola człowieka jako ostatecznego decydenta pozostaje, przynajmniej w narracjach respondentów, niekwestionowana. Autonomia technologiczna jawi się tu nie jako zastąpienie ludzkiego dowodzenia, lecz jako jego stopniowe technologiczne wsparcie. Jednocześnie daleko jej do prostego obrazu „zabójczych robotów”, do których nierzadko jest w publicznym dyskrusie sprowadzana.

4. Elita a „masowy” żołnierz

W wypowiedziach części respondentów wyraźnie rozgraniczono elitarnych specjalistów wosjkowych – takich jak piloci czy operatorzy sił specjalnych – a żołnierzem „masowym”, stanowiącym trzon większości formacji zbrojnych. Respondenci podkreślali, że w przypadku tej pierwszej grupy kluczowe znaczenie mają indywidualne kompetencje, doświadczenie oraz zdolność podejmowania decyzji w sytuacjach skrajnych, których nie da się w prosty sposób zastąpić systemami sztucznej inteligencji. Elita wojskowa była w ich narracjach przedstawiana jako obszar, w którym przewaga człowieka nad technologią pozostaje wyraźna, a rola SI ogranicza się do funkcji pomocniczych.

Respondenci zwracali jednak uwagę, że struktura współczesnych armii opiera się w przeważającej mierze na żołnierzach o przeciętnych kwalifikacjach, których poziom wyszkolenia i doświadczenia bojowego jest zróżnicowany. W tym kontekście systemy oparte na sztucznej inteligencji były postrzegane jako realne wsparcie, umożliwiające kompensowanie braków szkoleniowych oraz redukcję ryzyka błędów wynikających z niedostatecznego doświadczenia (równanie do średniej). Respondenci wskazywali, że algorytmy wspomagające celowanie, rozpoznanie czy analizę sytuacyjną mogą pełnić funkcję swoistego „wzmacniacza kompetencji”, pozwalając mniej doświadczonym żołnierzom działać skuteczniej w warunkach wysokiego stresu i presji czasowej.

W tym sensie sztuczna inteligencja była opisywana jako narzędzie prowadzące do częściowej demokratyzacji zdolności bojowych, rozumianej jako możliwość podniesienia efektywności większych formacji bez konieczności długotrwałego i kosztownego szkolenia każdego żołnierza do poziomu elitarnego. Respondenci nie traktowali tego procesu jako zniesienia hierarchii wojskowej, lecz raczej jako jej technologiczne uzupełnienie, w którym przewaga elity zostaje zachowana, a jednocześnie „masowy” żołnierz zyskuje narzędzia umożliwiające bardziej efektywne funkcjonowanie na współczesnym, silnie zinformatyzowanym polu walki.

5. Chaos wojny jako granica SI

Najczęściej wskazywanym ograniczeniem systemów sztucznej inteligencji był chaos wojny, rozumiany jako fundamentalna cecha działań zbrojnych, której nie da się w pełni sformalizować ani przewidzieć. Respondenci podkreślali, że algorytmy (nawet bardzo zaawansowane i trenowane na dużych zbiorach danych) funkcjonują w oparciu o modele upraszczające rzeczywistość, które w warunkach dynamicznego pola walki mogą okazać się niewystarczające lub wprost błędne. Wojna była w ich narracjach opisywana jako środowisko nieciągłe, pełne zakłóceń, błędnych sygnałów i niejednoznacznych sytuacji, w których granice między wrogiem, sojusznikiem a cywilem bywają trudne do jednoznacznego określenia.

Szczególne obawy budziła możliwość podejmowania przez systemy SI błędnych decyzji w sytuacjach o wysokiej wadze moralnej i operacyjnej, takich jak ostrzał własnych jednostek, ataki na cele cywilne czy reakcja na próby poddania się przeciwnika. Respondenci wskazywali, że tego rodzaju sytuacje często wymagają interpretacji kontekstu, intencji oraz sygnałów niewerbalnych, które trudno jednoznacznie zakodować w postaci danych wejściowych. W ich ocenie algorytmy mogą skutecznie wspierać proces decyzyjny w warunkach względnej stabilności, lecz w momentach gwałtownej zmiany sytuacji bojowej ryzyko błędu znacząco wzrasta.

W tym sensie sztuczna inteligencja była postrzegana jako narzędzie użyteczne, lecz strukturalnie niezdolne do pełnego zastąpienia ludzkiego osądu w sytuacjach granicznych. Respondenci nie negowali wartości sztucznej inteligencji jako elementu wsparcia rozpoznania, analizy czy planowania, jednak wyraźnie zaznaczali, że ostateczna decyzja w warunkach chaosu powinna należeć do człowieka. Ludzki osąd był w tych narracjach wiązany nie tyle z wyższą „inteligencją”, ile z jakościami trudno kwantyfikowalnymi, takimi jak doświadczenie, intuicja, zdolność improwizacji w obliczu nieprzewidywalnych zdarzeń, których nie da się w pełni uwzględnić w algorytmicznym modelu wojny.

Wnioski

Wyniki przeprowadzonego badania wskazują na trwałe i strukturalne napięcie pomiędzy dominującym w literaturze akademickiej dyskursem etycznym dotyczącym sztucznej inteligencji a pragmatycznym sposobem myślenia charakterystycznym dla środowisk wojskowych. Autonomiczne systemy bojowe oraz inne zastosowania SI w wojnie nie są przez respondentów ujmowane przede wszystkim jako problem moralny wymagający odrębnej, normatywnej refleksji, lecz jako kolejny etap technologicznej ewolucji działań zbrojnych. W tym sensie sztuczna inteligencja wpisuje się w ciąg historycznych innowacji militarnych, które początkowo budzą kontrowersje etyczne, by następnie zostać znormalizowane jako nowy standard prowadzenia wojny.

Jednocześnie badanie pokazuje, że w narracjach respondentów nie dochodzi do pełnego przypisania sztucznej inteligencji autonomii moralnej. Odpowiedzialność za decyzje podejmowane z udziałem systemów SI pozostaje, przynajmniej deklaratywnie, po stronie człowieka oraz instytucji wojskowych. Jest to jednak odpowiedzialność rozproszona i pośrednia, która w praktyce ulega rozmyciu wraz ze wzrostem złożoności systemów technicznych oraz stopniem ich integracji z procesami decyzyjnymi. Co istotne, respondenci rzadko postrzegają to rozmycie jako problem stricte etyczny. Znacznie częściej interpretują je jako nieuniknioną konsekwencję współczesnej wojny opartej na danych, algorytmach i złożonych łańcuchach decyzyjnych.

Najpoważniejsze obawy etyczne artykułowane przez respondentów nie dotyczą samej idei wykorzystania sztucznej inteligencji w działaniach wojennych, lecz jej zawodności w warunkach chaosu. To właśnie nieprzewidywalność pola walki, a nie dehumanizacja decyzji bojowych, stanowi główne źródło niepokoju. W tej perspektywie problemem nie jest to, że decyzje mogą być podejmowane przez algorytmy, lecz to, że algorytmy mogą nie poradzić sobie z sytuacjami granicznymi, wymagającymi interpretacji kontekstu, intencji oraz niejednoznacznych sygnałów. Etyka wojny jawi się tu nie jako zbiór abstrakcyjnych zasad, lecz jako praktyczna zdolność radzenia sobie z wyjątkami, błędami i nieciągłością rzeczywistości bojowej.

Wyniki badania sugerują również, że cyfrowe formy konfliktu nie są przez respondentów postrzegane jako jakościowo nowa forma przemocy wymagająca odrębnych ram etycznych. Przeciwnie, są one traktowane jako naturalne przedłużenie tradycyjnych działań zbrojnych, realizowane innymi środkami, lecz podporządkowane tej samej logice strategicznej. Takie podejście stoi w kontrze do części debat akademickich, które skłonne są postrzegać algorytmiczną manipulację informacją jako radykalne zerwanie z dotychczasowymi formami wojny.

Całościowo badanie pokazuje, że w środowiskach wojskowych dominują narracje pragmatyczne, instrumentalne i sceptyczne wobec akademickich debat etycznych na temat sztucznej inteligencji. Autonomiczne systemy bojowe oraz narzędzia SI są postrzegane jako nieunikniony element współczesnych konfliktów zbrojnych, oferujący realne korzyści operacyjne, takie jak zwiększenie skuteczności, wyrównywanie asymetrii oraz wsparcie procesu decyzyjnego, przy jednoczesnym uznaniu ich istotnych ograniczeń. Sztuczna inteligencja nie jawi się w tych narracjach ani jako zbawienie, ani jako zagrożenie egzystencjalne, lecz narzędzie funkcjonujące w ramach brutalnej, nieidealnej rzeczywistości wojny.

Z perspektywy etyki sztucznej inteligencji wyniki te wskazują na konieczność głębszego uwzględnienia doświadczeń praktyków wojskowych oraz realiów pola walki. Bez takiego zakorzenienia debata normatywna ryzykuje pozostanie dyskursem autoreferencyjnym, operującym pojęciami i problemami, które nie znajdują przełożenia na rzeczywiste procesy decyzyjne. Jednocześnie nie oznacza to, że refleksja etyczna traci sens; raczej wymaga ona przesunięcia akcentów i, paradoksalnie, „uczłowieczenia”.


Leave a comment