Home » 2022 » “Zaprogramowani mordercy” – roboty i systemy autonomiczne do celów bojowych

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 28

“Zaprogramowani mordercy” – roboty i systemy autonomiczne do celów bojowych

Spread the love

Wojna. Ciągła walka, czyli straty, korzyści, emocje… Te wszystkie uczucia na co dzień towarzyszą żołnierzowi na froncie. A co gdyby pozbawić go tych wszystkich emocji? Dać mu zamiast tego metalowe, dużo bardziej wytrzymałe ciało, broń i proste zestawy rozkazów. Brzmi surrealistycznie, ale jednak już dzisiaj możemy spotkać autonomiczne roboty zaprogramowane by zabijać wrogów czy terrorystów, czyli po prostu innych ludzi. Do którego momentu będzie to dobre a w którym już niekoniecznie? Kiedy ta utopijna wizja obróci się przeciwko nam?

Postęp technologiczny jest nierozłącznie związany z konfliktami zbrojnymi. Dlatego też nie dziwi, że automatyzacja z wykorzystaniem sztucznej inteligencji nie mogła ominąć sektora wojskowego. Zazwyczaj w przypadku inteligentnych broni na końcu łańcucha decyzyjnego znajduje się człowiek. Człowiek, który ostatecznie osądza o odebraniu życia drugiej osobie. Co się jednak dzieje gdy w tym procesie zabraknie czynnika ludzkiego? Co się dzieje gdy to maszyna od początku do końca decyduje o życiu i śmierci? Wtedy mamy do czynienia z broniami w pełni automatycznymi, określanymi jako “killer robots”.

Autonomous weapon, Future of Life Institute

Według Czerwonego Krzyża broń może zostać sklasyfikowana jako automatyczna, gdy w krytycznym procesie namierzania celu oraz użycia siły brakuje znaczącej kontroli człowieka. Oznacza to, że maszyna sama interpretuje sytuację i bez żadnej konsultacji z operatorem podejmuje działanie. Robi to na podstawie zaawansowanych algorytmów sztucznej inteligencji, rozpoznawania obrazu do identyfikacji celu, a także całego zestawu czujników, które pomagają jej poruszać się w niebezpiecznym terenie. 

Z wykorzystaniem takiego typu broni wiąże się ogromne ryzyko, ale również pewne zalety, które powodują ciągły rozwój coraz to bardziej śmiercionośnej technologii.

Czy ta zabójcza gra jest warta świeczki

Wiele osób podnosi, że wykorzystanie broni autonomicznych nie jest tylko dopuszczalne, ale wręcz konieczne. Powodem jest fakt, że często spotykamy się z sytuacjami gdy do tragedii przyczyniają się ludzkie decyzje. Zmęczeni ciągłymi walkami żołnierze mogą być agresywni, przestraszeni albo nawet żądni zemsty. W takim stanie psychicznym łatwo o błędy i lekkomyślne decyzje, które mogą doprowadzić do ofiar cywilnych lub eskalacji konfliktu. W przeciwieństwie do ludzi, roboty nie męczą się, są bardziej wydajne, a jedna inteligentna broń może zastąpić nawet cały oddział. Nie ulegają emocjom i z surowym obiektywizmem mogą wymierzyć strzał. Wojna nie odciska piętna na ich psychice, nie muszą leczyć traum, zapominać tragedii, których doświadczyli, nie tracą przyjaciół, nie mają nikogo bliskiego, kto opłakiwał by ich “śmierć”. Wizja wojen, w których “życie” tracą tylko maszyny wydaje się być argumentem za rozwojem tej technologii, jednak rzeczywistość nie jest taka prosta. 

Chaos i maszyny

Dowódcy, którzy nie muszą przejmować się utratą ludzi, mogą chętniej podejmować ryzyko i niepotrzebnie zaogniać konflikt. Faktem jest, że technologia nie jest nieomylna, Paul Scharre, były urzędnik Pentagonu i  żołnierz twierdzi, że

“jakkolwiek wyrafinowane byłyby systemy autonomicznej broni, brakuje im ludzkiej elastyczności i zrozumienia złożoności sytuacji.”

Na froncie często panuje chaos, priorytety się zmieniają a wydarzenia potrafią przybrać nieoczekiwany rozwój. W takich warunkach, na jakie żadna sztuczna inteligencja nie jest przygotowana, człowiek wraz ze swoją intuicją i doświadczeniem sprawdza się dużo lepiej niż nie idealny algorytm. Argumentów przeciwko wykorzystywaniu i rozwijaniu “robotów zabójców” jest wiele, od dylematów moralnych po strach przed cyberatakami.  

Jedną z najważniejszych obaw jest duże ryzyko skrzywdzenia niewinnych jednostek. Zgodnie z międzynarodowym prawem, działania wojenne powinny być proporcjonalne do zagrożenia, a ataki na ludności cywilnej są w pewnym stopniu akceptowane tylko wtedy, gdy nie były celowym zabiegiem. W przypadku wykorzystania sztucznej inteligencji rodzi się pytanie – jak sklasyfikować działanie robota jako intencjonalne lub nieintencjonalne? Czy spowodowane było błędem w algorytmie, złymi odczytami z czujników, a może zupełnie przemyślanym i zamierzonym ruchem? Problem stanowi również przypisanie odpowiedzialności za czyny konkretnej osobie. Gdy nikt nie ponosi winy i nie może zostać skazany, pojawia się ryzyko celowego agresywnego działania, które zostanie później przedstawione jako “wada systemu” lub “błąd maszyny”.  Może to doprowadzić do eskalacji konfliktu i sporych nadużyć ze strony rządzących. 

Nowy typ ataków

Podobne ryzyko dotyczy potencjalnych ataków hakerskich na śmiercionośne roboty. Czym bardziej zaawansowana broń, tym bardziej wyrafinowane sposoby na jej pokonanie. Sztuczna inteligencja jest podatna na oszustwa. Jeśli rozpracujemy algorytm i systemy nią kierujące, łatwo zmienić sposób w jaki robot postrzega rzeczywistość i wpłynąć na jego ocenę sytuacji. Coś co dla człowieka jest łatwo rozróżnialne, dla maszyny może stanowić problem. Ataki nie muszą polegać tylko na oszukiwaniu programu, ale też czujników, dzięki którym robot rozpoznaje otaczający go świat, np. poprzez zagłuszanie sygnałów GPS. Trudno sobie wyobrazić, co może się stać gdy tak niebezpieczna technologia wpadnie w niepowołane ręce. 

Turkish KARGU drone (STM Photo)

Nieprzewidywalność sztucznej inteligencji w sytuacjach bojowych jest ściśle związana z faktem, że bardzo trudno testować takie rozwiązania w sytuacjach zbliżonych do prawdziwego konfliktu zbrojnego. Misje odbywają się na ogromnym obszarze, ze zmienną pogodą, zagrożeniem ze strony wrogich żołnierzy i innych maszyn. Nie jesteśmy w stanie przystosować robota do każdej możliwej sytuacji, szczególnie gdy miałby on współpracować z innymi, podobnymi sobie maszynami. W innych dziedzinach, w których wykorzystujemy sztuczną inteligencję nie jest to aż takim problemem, jak na polu bitwy, gdzie ryzykujemy ludzkie życia. 

Emocje nie zawsze muszą być źródłem błędnych decyzji. Czasami wyjątkowo ważna jest umiejętność okazania współczucia i litości, do których niezdolne są nawet bardzo zaawansowane algorytmy. Ludzka moralność jest trudna do zaprogramowania i zasymulowania. Jednak można się kłócić czy będąc żołnierzem nie lepiej wyzbyć się swojego sumienia na rzecz rozkazów.  

Każda kontrowersyjna opinia znajdzie swoich zagorzałych zwolenników i przeciwników. Temat “robotów zabójców” porusza wielu specjalistów, którzy spierają się między sobą czy plusy wykorzystania takiej technologii przewyższają liczbę minusów.

Ciekawą opinię na ten temat ma Neil deGrasse Tyson:

Przyszłośc jest już dziś

Od paru lat wojsko używa autonomicznych robotów do realizacji bojowych zadań jak nadzór, wsparcie logistyczne czy rozbrajanie ładunków wybuchowych. Aktualnie postrzegane są one również jako alternatywa dla żywych żołnierzy. 

Jednym z ciekawych, aktualnie używanych rozwiązań są drony mające za zadanie zrobienie sporego ruchu na radarach wroga w celach kontrwywiadowczych. Drony te są w pełni sterowane przez sztuczną inteligencję, co możemy zobaczyć na filmie poniżej.

Zastąpienie ludzi na polu bitwy ma jednak swoich zwolenników jak i przeciwników. Głównym aspektem za i przeciw jest brak emocji – postępowanie według zaprogramowanego protokołu. Chociaż granica może zostać postawiona jasno, tak taki dron i tak wykonuje polecenia, które dla zwykłych cywyli pozostaną tajemnica. Wiele się mówi o “stratach ubocznych”, kiedy sztuczna inteligencja popełnia błąd lub nie miała wystarczających danych wywiadowczych. Człowiek zastanowiłby się za pociągnięciem spustu. A sztuczna inteligencja takiego robota? Przecież postępuje tylko wedle zaprogramowanego wcześniej protokołu…

“Typowe scenariusze” do zabijania

W maju 2021 roku Izraelska armia zaprezentowała autonomicznego robota Jaguar. Jego wyróżniającą cechą jest tryb autonomiczny, gdzie decyzję o otwarciu ognia podejmuje sztuczna inteligencja. Oficjalnie, w codziennym trybie pracy, oprogramowanie pozwala operatorowi robota na bardziej precyzyjne wycelowanie w wybrany cel. W związku z tym to żołnierz znajdujący się w oddalonej najczęściej o paręset kilometrów bazie, wydaje polecenie do strzału. Jednak w tzw. “niektórych scenariuszach”, robot może automatycznie zacząć strzelać w momencie, w którym ktoś oddał do niego strzał jako pierwszy. Również w przypadku bycia przechwyconym przez wroga, może aktywować protokół autodestrukcji, w którym zdetonuje zawarte w sobie ładunki wybuchowe. Przy takim obrocie spraw mogą ucierpieć postronni cywile. Nie mamy jednak informacji czy w takim wypadku jakkolwiek otoczenie sprawdzane jest pod kątem osób w zasięgu rażenia wybuchu.

Od 2014 roku co roku w Genewie poruszany jest temat globalnego zakazu wykorzystania autonomicznych robotów do celów militarnych. Jednak przeciwko są Australia, Rosja, Stany Zjednoczone, Wielka Brytania oraz Izrael. W związku z opozycją takich mocnych graczy na scenie militarnej, jeszcze długo nie będzie można mówić o takim zakazie.

Czeka nas bunt maszyn?

W popkulturze temat autonomicznych robotów zdolnych do zabijania jest z nami od praktycznie początku gatunku science-fiction. Najbardziej znanymi filmami z motywem autonomicznych droidów jest zaczęta w 1977 seria Star Wars, w której przeplatany jest motyw autonomicznych droidów sterowanych przez sztuczną inteligencję (najczęściej nie znajdującą się bezpośrednio na polu walki).

Świat Star Wars: 8 ciekawych cytatów droidów
Zautomatyzowane droidy sterowane przez sztuczną inteligencję – Źródło: StarWars reż. George Lucas.

Jednym z często pojawiających się motywów w filmach jest bunt maszyn. W momencie w którym sztuczna inteligencja stwierdza, że największym zagrożeniem dla człowieka jest on sam, stara się go obronić przed… samym sobą stając się z perpsektywy ludzi jej wrogiem (chociaż sztuczna inteligencja tego tak nie postrzega). Jednym z kultowych takich flmów jest Terminator. Wszystkie wydarzenia w filmie zapoczątkowane są przez stworzenie rewolucyjnego systemu sztucznej inteligencji zwanego Skynet. Został on stworzony jako “Komputerowa sieć obrony. Nowa… potężna… podłączona do wszystkiego, godna zaufania.”. Jednak w ciągu chwili, jako podstawowy cel uratowania ludzkości wybrał jej eksterminację. Początkowo myślano, że jest to wirus, jednak okazało się, że taka kolej rzeczy została wybrana przez zaimplementowane algorytmy. Bohaterowie serii muszą walczyć z ze sztuczną inteligencją, która w podstawowych założeniach, miała być dla nich ochroną i służyć wszech ogólnemu dobru.

Gdzie leży granica między ludzką a sztuczną inteligencją?

Temat sztucznej inteligencji, która wymyka się spod planowanej wcześniej kontroli, przejawia się również w grach komputerowych. Jednym z takich tytułów jest Detroit: Become to human studia Sony Interactive Entertainment. Cała fabuła rozgrywa się w mieście Detroid w 2038 roku. Ludzie wraz ze wzrostem zapotrzebowania na proste prace fizyczne i usługi stworzyli androidy, które za zadanie miały służyć innym. Były swego rodzaju cyfrowymi niewolnikami. Biorąc jednak pod uwagę bardzo zaawansowaną sztuczną inteligencję, można mówić o rozwijającej się samoświadomości tych androidów, które z wyglądu i zachowania przypominał ludzi. Niektóre były nawet zdolne do odczuwania emocji, z tego również powodu zaczęły się buntować i żądać równouprawnienia. W trakcie gry wcielamy się w trzy takie androidy, które w trakcie rozwijania fabuły podejmują wiele różnych, a zarazem ludzkich decyzji. Czy mamy skłamać, czy powiedzieć prawdę? Czy mamy się bronić, czy uciekać? Jako androidy stawiani również jesteśmy w decyzji czy pociągnąć za spust czy nie. Takie futurystyczne podejście do sztucznej inteligencji kłóci się z pierwszym prawem Asimova, jednak twórcy rozważają i taki rozwój wydarzeń w przypadku samoświadomej sztucznej inteligencji.

Review: Detroit: Become Human - Slant Magazine
Android wziął za zakładnika człowieka w obawie o swoje życie. Kadr z gry Detroit: become to human studia Sony Interactive Entertainment.

Bibliografia:

  1. Lethal Autonomous Weapons. (2021, November 30) https://autonomousweapons.org/
  2. Dawes, J. (2021, December 20). UN fails to agree on ‘killer robot’ ban as nations pour billions into autonomous weapons research. The Conversation. https://theconversation.com/un-fails-to-agree-on-killer-robot-ban-as-nations-pour-billions-into-autonomous-weapons-research-173616
  3. Jones, T. (2021, December 8). Real-Life Technologies that Prove Autonomous Weapons are Already Here. Future of Life Institute. https://futureoflife.org/2021/11/22/real-life-technologies-that-prove-autonomous-weapons-are-already-here/
  4. Michalik, Ł. (2021, June 30). Izraelski robot bojowy Jaguar. Autonomiczne maszyny będą strzelać do ludzi. WP Tech. https://tech.wp.pl/izraelski-robot-bojowy-jaguar-autonomiczne-maszyny-beda-strzelac-do-ludzi,6656024643353152a
  5. Rolecki, M. (2021, November 22). Roboty-zabójcy na polu walki. Izrael używa autonomicznych maszyn do walki z Palestyńczykami. Focus.pl. https://www.focus.pl/artykul/roboty-zabojcy-na-polu-walki-izrael-uzywa-autonomicznych-maszyn-do-walki-z-palestynczykami
  6. Prof. Peter Asaro, “Autonomous Weapons and the Ethics of Artificial Intelligence”, The New School Ethics of Artificial Intelligence, Oxford Press.

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…