Home » Uncategorized » Wykorzystanie SI i robotów do celów wojennych. Czy technologia informatyczna może stać się nową bronią zagłady?

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 24

Wykorzystanie SI i robotów do celów wojennych. Czy technologia informatyczna może stać się nową bronią zagłady?

Spread the love

W 2022 roku, cały świat przeznaczył sumarycznie 2 biliony dolarów na cele militarne. Część z tych pieniędzy została użyta na badania i rozwój nowych algorytmów sztucznej inteligencji oraz mniej lub bardziej autonomicznych robotów. W kontekście prowadzenia działań wojennych, sztuczna inteligencja ma bardzo wiele zastosowań, które bardzo często wychodzą poza stricte bojową sferę.

Po pierwsze, może być i jest skutecznie wykorzystywana jako narzędzie do siania dezinformacji. Za jej najbardziej prominentne zastosowaniem w tej dziedzinie można uznać deepfake, które były głównym tematem wielu poprzednich postów na tym blogu.

W tym artykule skupimy się jednak na wykorzystaniu AI w bardziej konwencjonalnych metodach prowadzenia wojny. Na przykład – od wielu lat algorytmy sztucznej inteligencji wykorzystywane są także bezpośrednio w pociskach różnego rodzaju, pojazdach i innych urządzeniach podczas działań bojowych. Kolejnym elementem, za który mogą być odpowiedzialne algorytmy sztucznej inteligencji jest tworzenie nowych broni lub optymalizowanie istniejących w celu zwiększenia ich wydajności (jakkolwiek ją zdefiniujemy, np. zwiększenie celności karabinu). Aspektem na którym chcemy w szczególności zwrócić uwagę są wszelkiego rodzaju roboty wojenne. 

Roboty wojenne w popkulturze

Stosowanie robotów wyposażonych w sztuczną inteligencję jest motywem, który często przewija się w gatunku science-fiction. Motyw ten jest poruszany przez wiele książek, filmów i seriali. Przedstawimy pokrótce świat i roboty pokazane w filmie Terminator oraz uniwersum Gwiezdnych Wojen.

W Terminatorze, tytułowy elektroniczny zabójca jest wysłany w przeszłość, żeby zamordować matkę przyszłego przywódcy ruchu oporu przeciwko złym robotom. Plan się nie powodzi, ale interesujący jest sam koncept. Skynet, czyli sztuczna inteligencja pierwotnie stworzona do obrony, zyskując świadomość dąży do zniszczenia ludzkości. Celem Skynet było kompletne wyeliminowanie ludzkości. Po zabiciu większości ludzi przy pomocy bronii atomowej, dąży do zniszczenia pozostałego ruchu oporu przy pomocy specjalizowanych robotów-zabójców.

Terminator

W uniwersum Gwiezdnych Wojen jest opisanych wiele różnych rodzajów robotów, które w mniejszym lub większym stopniu służyły do działań wojennych. W oryginalnej trylogii jednym z łowców nagród wynajętych przez Dartha Vadera do pojmania Luke’a Skywalkera jest droid IG-88. Był to robot z serii IG, czyli robotów stworzonych pierwotnie do celów pilnowania porządku, później przekształconych w maszyny do zabijania.

IG-11

Prequele z kolei opisują historię wojny, w której po jednej stronie walczyły prawie wyłącznie roboty. Różniły się one wyglądem i zastosowaniami. Niektóre przypominały bardziej szeregowych, miały niską moc obliczeniową i niewielkie możliwości siania destrukcji. Inne, bardziej zaawansowane, miały możliwość samodzielnego podejmowania bardziej skomplikowanych decyzji. Jeszcze inne służyły wyłącznie do analizowania sytuacji na polu bitwy i przygotowywania strategii obrony i ataku. Nie doszło tu jednak do sytuacji “buntu maszyn”, a pieczę nad wysoko-poziomymi strategiami dyktowały istoty oparte na białkach.

Tactical Droid

Wyobrażenia a rzeczywistość

Przykład Terminatora jest ciekawym przypadkiem, który możemy skonfrontować ze współczesnymi możliwościami technologicznymi. Nie chodzi tu o traktowanie filmu science fiction jako realnych przewidywań na temat rozwoju ludzkości, tylko o konfrontacje wizji, z którą społeczeństwo ma styczność poprzez popkulturę.

Analogię Terminatora możemy znaleźć w przeprowadzonym 27.11.2020 zamachu na Mohsena Fakhrizadeha – irańskiego fizyka, będącego ówczesnym kierownikiem irańskiego programu nuklearnego. W sprawie tej ciężko stwierdzić co zaszło ze stuprocentową pewnością, ale ze skrawków informacji układa się obraz prezentujący potencjał zmilitaryzowanej sztucznej inteligencji. Na pierwszym planie tej historii jest fakt, że naukowiec został zabity przy użyciu bezzałogowej broni maszynowej, przeszmuglowanej w częściach do Iranu przez, najprawdopodobniej, agentów izraelskiego Mossadu. Istnieją dwa sprawozdania z zaistniałego zdarzenia.

Mohsen Fakhrizadeh

Według pierwszego z nich, które ukazało się niedługo po samym zamachu, broń użyta podczas operacji była w pełni autonomiczna – za pomocą kamery oraz detekcji twarzy zidentyfikowała cel, następnie oddała kilkanaście strzałów w kierunku samochodu, którym poruszała się ofiara. Teza ta wywołała niemałe poruszenie w społeczności skupionej wokół zastosowań sztucznej inteligencji, między innymi pośród członków Campaign to Stop Killer Robots i ożywiła dyskusję dotyczącą konsekwencji używania sztucznej inteligencji do celów militarnych. Sprawozdanie to ilustruje sytuację bardzo podobną do wspomnianego wcześniej Terminatora (minus podróże w czasie) – autonomiczny robot zostaje przetransportowany w miejsce, gdzie jego jedynym celem jest zlikwidowanie celu swojej misji.

Campaign to stop killer robots

Drugi raport ze zdarzenia opublikowany przez The New York Times również sugeruje użycie sztucznej inteligencji podczas ataku. Postuluje on jednak mniejszą autonomię maszyny – broń była zdalnie sterowana przez operatora znajdującego się poza granicami Iranu. AI miało zostać użyte w celu kompensacji opóźnień wynikających z odległości między nim a robotem, która w połączeniu z wysoką prędkością celu oraz odrzutem karabinu powodowała duże zmiany w trajektorii pocisków. Według ekspertów ta teza jest bardziej prawdopodobna od zastosowania w pełni autonomicznej broni i rysuje nieco inny obraz zastosowań sztucznej inteligencji do działań bojowych – nie jako śmiercionośnego robota, a jako system wspomagający śmiercionośnego człowieka. Można jednak znaleźć wiele przykładów, gdzie jest na odwrót.

Gdzie należy postawić granicę w autonomii robotów?

W 2021 roku eksperci ONZ podali, że zaawansowany dron rozmieszczony w Libii w sposób w pełni autonomiczny, bez ingerencji ani wyraźnej komendy człowieka, zlokalizował oraz zlikwidował wrogą jednostkę. Spowodowało to żywą dyskusję na temat ograniczenia tego typu broni, jako że posiada ona miriady wad. Tego typu technologia w dużej mierze polega na rozpoznawaniu twarzy oraz szeroko pojętej klasyfikacji obrazu. Powoduje to więc duże ryzyko, że robot nauczy podejmować się błędne decyzje z powodu na felerny zbiór danych lub błąd w algorytmie.

Dyskusja ta trwa do dzisiaj i nie zapowiada się aby temat ten przestał budzić kontrowersję. Z drugiej strony istnieje bardzo wiele systemów, które z powodzeniem wdrażane są w praktyce dzięki wymuszeniu ingerencji człowieka w decyzje które podejmują – przytoczymy niektóre z nich.

Komercyjne roboty wojenne

Avatar III

Avatar III

Avatar III jest robotem do zastosowań taktycznych. Chciałem sprawdzić jego cenę, jednak nie widnieje ona wprost na stronie producenta. Robot wyposażony jest w płozy, kamery oraz dodatkowe akcesorium montowane u góry. Może to być m. in. ramie. Robot jest zdalnie sterowany, służyć może m. in. do rekonesansu.

DOGO

DOGO

DOGO wizualnie jest podobny do robota Avatar III, jednak ma zupełnie inne zastosowanie. Można go nazwać naziemną wersją dronów latających. Oprócz standardowego wyposażenia, takiego jak płozy czy liczne kamery, DOGO wyposażony jest w pistolet Glock o kalibrze 9 mm. Robot ten jest stosowany przez Izraelskie służby antyterrorystyczne, do walki z terrorystami. DOGO jest zdalnie sterowany, co czyni go bardzo zabójczym urządzeniem, podczas gdy jego kierowca może znajdować się w bezpiecznym miejscu. Stosunkowo niewinny wygląd robota również działa na jego korzyść.

Anduril Anvil

Sztuczną inteligencję możemy spotkać w wielu formach w różnego rodzaju dronach. Używa się ją między innymi do identyfikacji celów oraz wszelkiego przetwarzania obrazu. Mimo to, kontekście bezzałogowych statków latających istnieje bardzo ciekawe zastosowanie AI – systemy anty-powietrzne. W pewnym sensie jest to zwalczanie ognia ogniem.

Anduril Anvil jest autonomicznym systemem zaprojektowanym w celu zabezpieczania obszaru przed dostępem nieautoryzowanych dronów. Jest on odpowiedzialny za monitorowanie, prezentowanie operatorowi jasnego obrazu sytuacji powietrznej oraz wspomaganie podejmowania krytycznych decyzji dotyczących likwidowania niepożądanych intruzów. Dzięki sztucznej inteligencji jest w stanie rozpoznać zagrożenie oraz zaproponować najbardziej optymalną ścieżkę jego neutralizacji.
Po decyzji operatora, Anvil automatycznie niszczy wrogi pojazd, bez konieczności zdalnego sterowania. Może to robić między innymi za pomocą fal elektromagnetycznych lub poprzez wysłanie własnego drona, który z wysoką prędkością zderza się z celem.

AI i Roboty a Zagłada

Nie wydaje się, aby współczesne zastosowania sztucznej inteligencji i robotów do celów wojennych były bezpośrednio związane z bronią masowego zniszczenia.

Apokalipsa w Terminatorze

Aktualnie ludzkość dysponuje bardzo skutecznymi broniami masowego rażenia – broń biologiczna, chemiczna, czy chociażby atomowa. AI ma więc bardzo silną konkurencję jeśli chodzi o potencjał zabijania i ciężko sobie wyobrazić aby przepaść ta znacząco się zmniejszyła. Sztuczna inteligencja jest jednak bardzo uniwersalnym narzędziem, które świetnie sprawdza się w sprawach nieco bardziej subtelnych niż broń masowej zagłady. Wszelkiego rodzaju systemy monitorowania oraz wspomagania decyzji operatora, mechanizmy prognozowania warunków w przyszłości itp. są bardziej praktycznym zastosowaniem tej technologii. Stosując niezbyt trafną analogię – zdaje się że na sztuczną inteligencję w kontekście działań wojennych lepiej patrzeć jak na osełkę aniżeli na sam nóż – sprawia ona że istniejące narzędzia stają się znacznie bardziej wyrafinowane oraz dostarcza pewnie usprawnienia na poziomie ich “user experience”.

Mimo mnogości zastosowań do celów stricte bojowych, wydaje się, że na większą skalę bardziej niebezpieczne są zastosowania sztucznej inteligencji w dezinformacji, manipulowaniu opinią publiczną przy pomocy m.in. mediów społecznościowych. Raczej nie myślimy o takich zastosowaniach AI jako o broni masowego rażenia, jednak paradoksalnie może być ono najbardziej niebezpieczne.

Bibliografia


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…