Od czasu wybuchu największej wojny w Europie od czasów II wojny światowej napięcie na świecie wzrosło, a my wszyscy znaleźliśmy się u progu potencjalnego konfliktu. Pojawia się wiele pytań i hipotez na temat tego, jak taka wojna może wyglądać, jakie strony mają możliwości i w jaki sposób nowoczesne technologie, w tym sztuczna inteligencja, transformują pole bitwy. Od wieków człowiek był główną jednostką bojową, ale obecnie inwestycje w autonomiczne systemy uzbrojenia i zaawansowane drony zmieniają sposób prowadzenia działań wojennych. Przyjrzyjmy się, jak AI wpływa na zastosowania militarne i jakie wnioski płyną z tych zmian dla przyszłości konfliktów zbrojnych oraz etyki technologii wojennych.
Disclaimer
Poniższy wpis zawiera nagrania z wojny, które mogą zawierać materiały o charakterze drastycznym lub nieodpowiednie dla osób wrażliwych. Zachęcamy do ostrożności przy oglądaniu i rozważenia własnych możliwości emocjonalnych przed kontynuacją. Materiały te mogą wywoływać silne reakcje emocjonalne. Czytaj i oglądaj na własną odpowiedzialność.
Wstęp
Od wieków człowiek był główną siłą wojenną, wzmacniano go zbroją i ulepszano broń, jednak zawsze to ludzie stali za operacjami. Z biegiem czasu bitwy przekształciły się w masowe fronty, angażując setki tysięcy ludzi i coraz więcej cywilów. Powieść “Na zachodzie bez zmian” Remarque’a obrazuje drastyczne doświadczenia żołnierzy, pogłębiając negatywny obraz wojny. Po II wojnie światowej powstały Liga Narodów i ONZ, promując humanitaryzm i prawa człowieka, stanowiąc reakcję na przemoc, jak opisuje Pinker. Zachodnie kraje zaczęły preferować technologiczne rozwiązania wojenne, jak w operacji “Pustynna Burza”, mimo to wysłano wojska lądowe dla kontroli terenu.
Taktyka ta sprawdza się w walce z dużymi oddziałami, ale nie wobec małych, rozproszonych grup, jak talibowie, wymagających obecności na miejscu. Rozwój sztucznej inteligencji i intensyfikacja konfliktów skłoniły do inwestycji w autonomiczne systemy, które mogą zredukować liczbę ludzi potrzebnych do operacji. Choć to nie nowy trend – badania nad wykorzystaniem gołębi w II wojnie światowej to przykład wcześniejszych prób automatyzacji wojny.
Przeanalizujemy główne zastosowania sztucznej inteligencji w wojnie i ich wpływ na prowadzenie działań wojennych. Następnie spróbujemy wyciągnąć pewne wnioski dotyczące etyki takich technologii.
Zastosowania sztucznej inteligencji
W tej sekcji omówimy konkretne zaobserwowane przykłady użycia sztucznej inteligencji w działaniach wojennych. Największy nacisk zostanie położony na wojnę rosyjsko-ukraińską, ponieważ jest to temat bezpośrednio dotyczący jednego z autorów.
Drony ofensywne
Przez długi czas artyleria i lotnictwo były głównymi środkami uderzenia podczas wojny. Szczególnie artyleria była kluczowym elementem rosyjskiej doktryny wojennej od czasów ZSRR. Stalin mawiał: “Artyleria to bóg wojny.” Dlatego Rosja skupiała się na produkcji jak największej liczby haubic i amunicji do nich. Ukraina również dysponowała znacznymi zapasami, ale po kilku przypadkach wybuchów magazynów oraz po długiej polityce utylizacji te zapasy znacznie się zmniejszyły.
Wybuch składu amunicji w Kalinówce, Ukraina [source]
Po rozpoczęciu pełnowymiarowej inwazji i wsparciu ze strony Zachodu większość haubic używanych przez Siły Zbrojne Ukrainy miała kaliber 155 mm, różniący się od radzieckich/rosyjskich amunicji o kalibrze 152 mm. Prowadziło to do znacznego deficytu amunicji, co często było widoczne w infografikach dotyczących liczby wystrzelonych pocisków dziennie.
Ponieważ Rosja zaczęła stosować nieustanne ataki małymi grupami, artyleria stała się kluczowym czynnikiem w odpieraniu takich ataków obok dronów rozpoznawczych, które miały za zadanie wykrywać te grupy.
Z powodu problemów z brakiem amunicji, zaczęto poszukiwać alternatywnych sposobów ich zastąpienia. Tak pojawiły się drony FPV, które były kontrolowane w 100% przez człowieka. To jednak stwarzało pewne problemy, ponieważ taki dron musi komunikować się z człowiekiem – przesyłać obraz i otrzymywać polecenia. Z rozwojem zaawansowanych systemów zakłóceń elektronicznych precyzja tych dronów spadła, ponieważ sygnał zanikał w pobliżu obiektu chronionego przez takie systemy, utrudniając precyzyjne naprowadzanie.
First Person View Drone (FPV) [source]
Ukrainian drone approaching Russian trucks with electronic warfare systems installed
To skłoniło inżynierów do użycia metod sztucznej inteligencji, która pozwoliła dronom wykrywać cele i przejmować sterowanie, by skutecznie je trafiać. Kolejnym krokiem kamieniem milowym może stać całkowicie autonomiczne działanie drona, który będzie poszukiwał celów w określonym sektorze bez zaangażowania operatora. Dąży się też do tworzenia całych rojów dronów, które będą współpracować, by trafiać w cele bez kolizji między sobą.
Ukrainian drone approaching Russian tank (notice the numbers in the top right corner representing the connection with the operator decreasing to 0)
Footage from Russians from claimed tests of drones
Podobny rozwój obserwujemy także w przypadku naziemnych dronów, choć postępują one wolniej z powodu większych trudności w ich użyciu. Rosja próbowała wykorzystywać stare czołgi, wypełniać je materiałami wybuchowymi i kierować na pozycje ukraińskie bez załogi. Próby te nie były jednak zbyt udane. Ukraińcy również zaczęli używać dronów z ładunkami wybuchowymi, by zdalnie niszczyć infrastrukturę utrudniające postęp rosyjskich wojsk. Autonomiczne naziemne drony są nadal w fazie rozwoju, choć istnieją już wersje stacjonarne, o których w kolejnych podsekcjach.
Drony morskie okazały się znaczącą asymetryczną odpowiedzią na rosyjską flotę na Morzu Czarnym. Ich postępowy rozwój jest bardzo podobny do dronów powietrznych.
Sztuczna inteligencja ma także inne zastosowania w przypadku dronów o dużym zasięgu. Zwykle są one sterowane popularnymi systemami nawigacji, takimi jak GPS, co obniża koszty produkcji. Niestety, czyni to je podatnymi na zakłócenia sygnału. Przykładem jest odwołany lot z Helsinek do Tallinna z powodu zakłóceń GPS pochodzących z Rosji. W takich sytuacjach, by zapewnić, że dron precyzyjnie trafi w cel, inżynierowie stosują kamery, które na podstawie obrazu terenu umożliwiają określenie dokładnego położenia drona. Dzięki temu może on poruszać się całkowicie autonomicznie, bez potrzeby komunikacji z zewnętrznymi systemami, które mogą być zakłócone.
Drony defensywne
Jak to mówią, nie istnieje żadne „wunderwaffe” – na każdą broń znajduje się odpowiedź, która neutralizuje jej skuteczność. Dlatego wojny, paradoksalnie, przyspieszają postęp, bo pojawienie się skutecznych środków u jednej strony zmusza drugą do inwestowania znacznych środków w rozwój przeciwdziałań, rezygnując z wszelkiej biurokracji czy zakazów obowiązujących w czasie pokoju.
Głównym problemem zwalczania dronów jest ich prędkość, mały rozmiar i możliwość sterowania, co utrudnia przewidywanie ich trajektorii. Jednocześnie są one bardzo podatne na bezpośredni i precyzyjny ogień. Aby uzyskać strzelca, który będzie mógł bardzo szybko reagować na ruch drona, stosuje się sztuczną inteligencję.
Paladin – Air Force Research Laboratory [source]
Systemy obrony przeciwlotniczej, które pozwalają śledzić drony dalekiego zasięgu, są także wyposażane w systemy z AI. Umożliwia to efektywne wykorzystanie mobilnych grup bez potrzeby instalowania kosztownych radarów, które są jednocześnie podatne na ataki. Ważne jest podkreślenie, że AI nie może całkowicie zastąpić tych systemów, ale stanowi dla nich doskonałe uzupełnienie.
Autonomiczne roboty są również wykorzystywane do obrony pozycji. Pod Awdijewką ukraińska pozycja była umocniona i przez kilka dni utrzymywana przez robota, który stworzył wrażenie, że na pozycji znajdują się ukraińskie oddziały. Dzięki dodatkowemu użyciu moździerzy i dronów bojowych, robot zmylił przeciwnika co do siły i liczebności sił ukraińskich na tym obszarze.
Wywiad
Etap II – samodzielny agent podejmujący decyzje
Elliot Winter (2022) twierdzi jednak, że aby taka technologia działała dobrze, “maszyny musiałyby posiadać zaawansowane umiejętności obserwacji i rozpoznawania, a także wyrafinowaną zdolność podejmowania decyzji”. Jego zdaniem zdolności te zapewniłyby zgodność z zasadą rozróżnienia Międzynarodowego Prawa Humanitarnego (MPH), czyli zdolność do odróżnienia bojowników od osób nie biorących udziału w walce.
Jednakże, jeśli ludzie są pod wpływem emocji i uprzedzeń, tak samo jest z technologiami kodowanymi przez tych ludzi. Naukowcy wykazali, że technologie sztucznej inteligencji mają tendencję do nieproporcjonalnie błędnego przedstawiania małoreprezentowanych społeczności (Gebru 2020). Słaba interpretowalność takich systemów może doprowadzić do sytuacji, w której będą one podejmować decyzję na podstawie nierelewantnych zgodnie z MPH faktorów, takich jak płeć czy rasa.
Branka Marijan (2022) proponuje zasady, które mają na celu rzeczywiście ochronić cywilów i innych osób nie biorących udział w walce. Ona uważa, że kluczowe jest zapewnienie kontroli człowieka nad systemami uzbrojenia. Każdy system uzbrojenia, który zależy od danych wejściowych z czujników w celu podejmowania decyzji dotyczących wyboru celu i zaangażowania, powinien zostać uznany za wysoce ryzykowny i niedopuszczalny do użytku. Eksport technologii i systemów do krajów, które mogą używać ich niezgodnie z zamierzeniami eksportera, powinien być ograniczony i monitorowany, zwłaszcza z uwagi na wielozadaniowość tych technologii.
To naprawdę inspirujące spojrzenie na przyszłość technologii wojskowych!