Home » AGH 2023/24 » Autonomiczni żołnierze. Perspektywy wykorzystania robotów i AI w kontekście militarnym a perspektywa sprawiedliwej wojny.

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 79

Autonomiczni żołnierze. Perspektywy wykorzystania robotów i AI w kontekście militarnym a perspektywa sprawiedliwej wojny.

Spread the love

Od czasu wybuchu największej wojny w Europie od czasów II wojny światowej napięcie na świecie wzrosło, a my wszyscy znaleźliśmy się u progu potencjalnego konfliktu. Pojawia się wiele pytań i hipotez na temat tego, jak taka wojna może wyglądać, jakie strony mają możliwości i w jaki sposób nowoczesne technologie, w tym sztuczna inteligencja, transformują pole bitwy. Od wieków człowiek był główną jednostką bojową, ale obecnie inwestycje w autonomiczne systemy uzbrojenia i zaawansowane drony zmieniają sposób prowadzenia działań wojennych. Przyjrzyjmy się, jak AI wpływa na zastosowania militarne i jakie wnioski płyną z tych zmian dla przyszłości konfliktów zbrojnych oraz etyki technologii wojennych.


Disclaimer

Poniższy wpis zawiera nagrania z wojny, które mogą zawierać materiały o charakterze drastycznym lub nieodpowiednie dla osób wrażliwych. Zachęcamy do ostrożności przy oglądaniu i rozważenia własnych możliwości emocjonalnych przed kontynuacją. Materiały te mogą wywoływać silne reakcje emocjonalne. Czytaj i oglądaj na własną odpowiedzialność.


Wstęp

Od wieków człowiek był główną siłą wojenną, wzmacniano go zbroją i ulepszano broń, jednak zawsze to ludzie stali za operacjami. Z biegiem czasu bitwy przekształciły się w masowe fronty, angażując setki tysięcy ludzi i coraz więcej cywilów. Powieść “Na zachodzie bez zmian” Remarque’a obrazuje drastyczne doświadczenia żołnierzy, pogłębiając negatywny obraz wojny. Po II wojnie światowej powstały Liga Narodów i ONZ, promując humanitaryzm i prawa człowieka, stanowiąc reakcję na przemoc, jak opisuje Pinker. Zachodnie kraje zaczęły preferować technologiczne rozwiązania wojenne, jak w operacji “Pustynna Burza”, mimo to wysłano wojska lądowe dla kontroli terenu.

Taktyka ta sprawdza się w walce z dużymi oddziałami, ale nie wobec małych, rozproszonych grup, jak talibowie, wymagających obecności na miejscu. Rozwój sztucznej inteligencji i intensyfikacja konfliktów skłoniły do inwestycji w autonomiczne systemy, które mogą zredukować liczbę ludzi potrzebnych do operacji. Choć to nie nowy trend – badania nad wykorzystaniem gołębi w II wojnie światowej to przykład wcześniejszych prób automatyzacji wojny.

Przeanalizujemy główne zastosowania sztucznej inteligencji w wojnie i ich wpływ na prowadzenie działań wojennych. Następnie spróbujemy wyciągnąć pewne wnioski dotyczące etyki takich technologii.

Zastosowania sztucznej inteligencji

W tej sekcji omówimy konkretne zaobserwowane przykłady użycia sztucznej inteligencji w działaniach wojennych. Największy nacisk zostanie położony na wojnę rosyjsko-ukraińską, ponieważ jest to temat bezpośrednio dotyczący jednego z autorów.

Drony ofensywne

Przez długi czas artyleria i lotnictwo były głównymi środkami uderzenia podczas wojny. Szczególnie artyleria była kluczowym elementem rosyjskiej doktryny wojennej od czasów ZSRR. Stalin mawiał: “Artyleria to bóg wojny.” Dlatego Rosja skupiała się na produkcji jak największej liczby haubic i amunicji do nich. Ukraina również dysponowała znacznymi zapasami, ale po kilku przypadkach wybuchów magazynów oraz po długiej polityce utylizacji te zapasy znacznie się zmniejszyły.

Wybuch składu amunicji w Kalinówce, Ukraina [source]

Po rozpoczęciu pełnowymiarowej inwazji i wsparciu ze strony Zachodu większość haubic używanych przez Siły Zbrojne Ukrainy miała kaliber 155 mm, różniący się od radzieckich/rosyjskich amunicji o kalibrze 152 mm. Prowadziło to do znacznego deficytu amunicji, co często było widoczne w infografikach dotyczących liczby wystrzelonych pocisków dziennie.

Ponieważ Rosja zaczęła stosować nieustanne ataki małymi grupami, artyleria stała się kluczowym czynnikiem w odpieraniu takich ataków obok dronów rozpoznawczych, które miały za zadanie wykrywać te grupy.

Z powodu problemów z brakiem amunicji, zaczęto poszukiwać alternatywnych sposobów ich zastąpienia. Tak pojawiły się drony FPV, które były kontrolowane w 100% przez człowieka. To jednak stwarzało pewne problemy, ponieważ taki dron musi komunikować się z człowiekiem – przesyłać obraz i otrzymywać polecenia. Z rozwojem zaawansowanych systemów zakłóceń elektronicznych precyzja tych dronów spadła, ponieważ sygnał zanikał w pobliżu obiektu chronionego przez takie systemy, utrudniając precyzyjne naprowadzanie.

First Person View Drone (FPV) [source]

View post on imgur.com

Ukrainian drone approaching Russian trucks with electronic warfare systems installed

To skłoniło inżynierów do użycia metod sztucznej inteligencji, która pozwoliła dronom wykrywać cele i przejmować sterowanie, by skutecznie je trafiać. Kolejnym krokiem kamieniem milowym może stać całkowicie autonomiczne działanie drona, który będzie poszukiwał celów w określonym sektorze bez zaangażowania operatora. Dąży się też do tworzenia całych rojów dronów, które będą współpracować, by trafiać w cele bez kolizji między sobą.

View post on imgur.com

Ukrainian drone approaching Russian tank (notice the numbers in the top right corner representing the connection with the operator decreasing to 0)

View post on imgur.com

Footage from Russians from claimed tests of drones

Podobny rozwój obserwujemy także w przypadku naziemnych dronów, choć postępują one wolniej z powodu większych trudności w ich użyciu. Rosja próbowała wykorzystywać stare czołgi, wypełniać je materiałami wybuchowymi i kierować na pozycje ukraińskie bez załogi. Próby te nie były jednak zbyt udane. Ukraińcy również zaczęli używać dronów z ładunkami wybuchowymi, by zdalnie niszczyć infrastrukturę utrudniające postęp rosyjskich wojsk. Autonomiczne naziemne drony są nadal w fazie rozwoju, choć istnieją już wersje stacjonarne, o których w kolejnych podsekcjach.

Drony morskie okazały się znaczącą asymetryczną odpowiedzią na rosyjską flotę na Morzu Czarnym. Ich postępowy rozwój jest bardzo podobny do dronów powietrznych.

Sztuczna inteligencja ma także inne zastosowania w przypadku dronów o dużym zasięgu. Zwykle są one sterowane popularnymi systemami nawigacji, takimi jak GPS, co obniża koszty produkcji. Niestety, czyni to je podatnymi na zakłócenia sygnału. Przykładem jest odwołany lot z Helsinek do Tallinna z powodu zakłóceń GPS pochodzących z Rosji. W takich sytuacjach, by zapewnić, że dron precyzyjnie trafi w cel, inżynierowie stosują kamery, które na podstawie obrazu terenu umożliwiają określenie dokładnego położenia drona. Dzięki temu może on poruszać się całkowicie autonomicznie, bez potrzeby komunikacji z zewnętrznymi systemami, które mogą być zakłócone.

Drony defensywne

Jak to mówią, nie istnieje żadne „wunderwaffe” – na każdą broń znajduje się odpowiedź, która neutralizuje jej skuteczność. Dlatego wojny, paradoksalnie, przyspieszają postęp, bo pojawienie się skutecznych środków u jednej strony zmusza drugą do inwestowania znacznych środków w rozwój przeciwdziałań, rezygnując z wszelkiej biurokracji czy zakazów obowiązujących w czasie pokoju.

Głównym problemem zwalczania dronów jest ich prędkość, mały rozmiar i możliwość sterowania, co utrudnia przewidywanie ich trajektorii. Jednocześnie są one bardzo podatne na bezpośredni i precyzyjny ogień. Aby uzyskać strzelca, który będzie mógł bardzo szybko reagować na ruch drona, stosuje się sztuczną inteligencję.

View post on imgur.com

Paladin – Air Force Research Laboratory [source]

Systemy obrony przeciwlotniczej, które pozwalają śledzić drony dalekiego zasięgu, są także wyposażane w systemy z AI. Umożliwia to efektywne wykorzystanie mobilnych grup bez potrzeby instalowania kosztownych radarów, które są jednocześnie podatne na ataki. Ważne jest podkreślenie, że AI nie może całkowicie zastąpić tych systemów, ale stanowi dla nich doskonałe uzupełnienie.

Autonomiczne roboty są również wykorzystywane do obrony pozycji. Pod Awdijewką ukraińska pozycja była umocniona i przez kilka dni utrzymywana przez robota, który stworzył wrażenie, że na pozycji znajdują się ukraińskie oddziały. Dzięki dodatkowemu użyciu moździerzy i dronów bojowych, robot zmylił przeciwnika co do siły i liczebności sił ukraińskich na tym obszarze.

Wywiad

W czasach wojen w poprzednich stuleciach informacja była na wagę złota – zawsze jej brakowało, a każda wiadomość o położeniu wojsk wroga, ich składzie, liczebności, nastrojach czy wyposażeniu była nieoceniona.

Wartość takiej informacji nie zmniejszyła się do dziś, choć obecnie problemem jest ilość dostępnych danych. Jeden satelita jest w stanie wykonać wiele zdjęć tego samego obszaru w ciągu dnia. Ponieważ obszar, na którym toczą się działania wojenne, nie wspominając nawet o rozległych obszarach zaplecza, które mogą zainteresować służby wywiadowcze, jest bardzo duży, skuteczna analiza takiej ilości zdjęć wymagałaby zaangażowania wielu ludzi. Zamiast tego opracowanie modelu komputerowego widzenia, który będzie identyfikował sprzęt, zgromadzenia personelu czy inne obiekty zainteresowania wojskowego, znacznie przyspiesza i poprawia jakość procesu.

Innym typem informacji interesującym wojskowych są media społecznościowe. Tak, media społecznościowe kryją w sobie mnóstwo informacji, które mogą dostarczyć cennych wskazówek na temat stanu sił wroga. Na przykład reakcje na ostrzały mogą dostarczyć ważnych danych dotyczących skuteczności danego ataku. Z drugiej strony, można próbować ocenić poziom strat przeciwnika, zbierając komunikaty o poległych od krewnych lub lokalnych władz. Tego typu metoda jest oczywiście bardzo daleka od precyzyjnej, ale może potwierdzić lub zaprzeczyć danym z innych, bardziej wiarygodnych źródeł (Radford 2023).

Kolejnym źródłem informacji są sieci komórkowe. Ukraińskie służby wywiadowcze i bezpieczeństwa mogą podsłuchiwać rozmowy telefoniczne, zwłaszcza jeśli sygnał przechodzi przez wieże telekomunikacyjne ukraińskich operatorów, takich jak Kyivstar. Rosyjscy żołnierze, zwłaszcza na początku inwazji, nie dbali o bezpieczeństwo komunikacji i używali lokalnych sieci komórkowych do dzwonienia do bliskich. W tych rozmowach często można było znaleźć informacje o jednostce danego żołnierza, przyznanie się do popełnienia zbrodni wojennych i tym podobne. Przetwarzanie tak dużej ilości informacji z pewnością wymaga automatyzacji przy użyciu sztucznej inteligencji.

PsyOps

Ostatnie, niemniej ważne zastosowanie AI, które często bywa pomijane, to operacje informacyjno-psychologiczne (PsyOps). Większość wojen nie kończy się totalną kapitulacją, która oznaczałaby pełną okupację pokonanego. Zwykle wojny dochodzą do punktu, w którym ich kontynuowanie staje się nieopłacalne, co prowadzi do negocjacji. Oznacza to, że zakończenie wojny często zależy nie od przełamania frontu, ale od zmiany nastrojów na zapleczu. Dlatego jedna z najskuteczniejszych inwestycji w realiach współczesnej wojny to inwestycja w operacje informacyjno-psychologiczne.

Jednym z rodzajów PsyOps są deepfake’i. Ten typ jest szczególnie skuteczny w sytuacjach pełnych chaosu, jak na początku inwazji. Szybka zmiana okoliczności i brak wiarygodnych oficjalnych informacji tworzą idealne warunki do wprowadzania deepfake’ów, które mają na celu wprowadzenie większego chaosu, rozpowszechnianie fałszywych informacji (np. o zajęciu przez wroga konkretnej miejscowości), aż po dezinformację jednostek wojskowych, co wpływa bezpośrednio na ich zdolność bojową.

Innym przykładem jest wpływ na nastroje społeczne poprzez tworzenie farm botów dla różnych mediów społecznościowych. Jeśli wcześniej były one dość prymitywne i próbowały rozniecać spory niewłaściwe dla danej grupy społecznej, to ostatnio zaczęły one podsycać już istniejące dyskusje, co prowadzi do pogorszenia nastrojów społecznych, wzbudzania nieufności wobec rządowych i wolontariackich instytucji oraz podsycania konfliktów między różnymi grupami ludzi.

Takie boty mogą także propagować idee kwestionujące legitymizację obecnej władzy, ukrywać się pod przedstawicielami opozycji, kwestionować ich patriotyzm, zarzucać korupcję, itp., podważając zaufanie społeczeństwa do organów państwowych (Graham 2023).

Etyka autonomicznych systemów uzbrojenia

Publiczne dyskusje na temat regulacji autonomicznych systemów uzbrojenia (z ang. Lethal Autonomous Weapons Systems – LAWS) trwają od 2014 roku, w tym na konferencjach przy ONZ dotyczących Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych. I jeśli w przypadku min, min-pułapek oraz innych uzbrojeń udało się wypracować pewne zasady, to w przypadku LAWS mimo dekady pracy zostało ustalone bardzo mało.

Żeby móc efektywnie dyskutować i oceniać możliwe skutki użycia sztucznej inteligencji w zastosowaniach militarnych, trzeba podzielić je na trzy etapy.

Etap I – wsparcie człowieka

W tej fazie, AI służy przede wszystkim jako wsparcie analityczne i decyzyjne dla operatorów i dowódców. Technologie takie jak systemy rozpoznawania obrazu, przetwarzanie języka naturalnego oraz zaawansowane algorytmy analizy danych umożliwiają szybsze i dokładniejsze przetwarzanie informacji, co jest kluczowe na współczesnym polu walki, gdzie decyzje muszą zapadać szybko i na podstawie ogromnych ilości rozproszonych danych. AI pomaga w identyfikacji zagrożeń, optymalizacji tras przemieszczania jednostek oraz w zarządzaniu zasobami, co zwiększa efektywność operacji i potencjalnie zmniejsza ryzyko błędów ludzkich.

Kolejnym aspektem jest wykorzystanie AI do poprawy obrony poprzez lepsze zarządzanie systemami przeciwrakietowymi i przeciwlotniczymi, które dzięki automatyzacji mogą reagować na zagrożenia w sposób niemal natychmiastowy. Niezwykle ważne jest, aby każde zastosowanie AI na tym etapie było dokładnie monitorowane przez ludzi, którzy pozostają ostatecznymi decydentami. To połączenie ludzkiej intuicji z precyzją maszynowego przetwarzania danych otwiera nowe możliwości, ale wymaga również ścisłych protokołów i regulacji, aby zapewnić zgodność z międzynarodowymi normami etycznymi i prawnymi.

Takim systemem może być sieć neuronowa, której zadaniem jest analiza obrazów satelitarnych dla monitoringu przemieszczenia jednostek wroga czy ujawnienia nagromadzeń sprzętu wojskowego. Ten system nie podejmuje decyzji, nie wystrzeliwuje pocisków manewrujących czy balistycznych, lecz tylko informuje człowieka, od którego już zależy, czy zaatakuje on dany cel.

Jeśli taka broń stanowi duże zagrożenie dla cywilów, to powinna być regulowana na poziomie z innymi typami uzbrojeń, jak np. chemiczne, biologiczne czy nawet zwykłe miny przeciwpiechotne. Zwykle jednak coraz bardziej precyzyjna broń jest ceniona za minimalizowanie ryzyka dla ludności cywilnej, choć tworzy ona paradoks precyzji. Biorąc pod uwagę, że “zdolność do angażowania się w bardziej precyzyjne uderzenia może oznaczać, że wojsko może zgodnie z prawem angażować się w większą liczbę uderzeń, ponieważ operacja, która kiedyś mogła ryzykować zbyt duże szkody cywilne, a tym samym nie spełniała wymogu proporcjonalności, może zostać ponownie uznana za zgodną z prawem” (Crootof 2022). Im więcej jest ataków, tym więcej szkód cywilnych jest dozwolonych – zarówno jako przewidywane szkody uboczne, jak i nieprzewidziane szkody przypadkowe.

Etap II – samodzielny agent podejmujący decyzje

W drugim etapie ewolucji, AI zaczyna odgrywać bardziej autonomiczną rolę, przejmując inicjatywę w niektórych decyzjach taktycznych, które wcześniej należały wyłącznie do kompetencji ludzi. Przykładem może być autonomiczny dron, który samodzielnie analizuje sytuację na polu bitwy i podejmuje decyzje o wykonaniu ataku na wyznaczony cel. Chociaż takie systemy mogą działać z niesamowitą precyzją i szybkością, kwestionuje się ich zdolność do przestrzegania zasad proporcjonalności i rozróżnienia między celami wojskowymi a cywilnymi.

Wprowadzenie autonomicznych systemów bojowych stawia przed nami pytanie o odpowiedzialność za ich działania. Kto ponosi odpowiedzialność, gdy maszyna popełni błąd lub gdy jej działania prowadzą do niewłaściwych skutków? Ta kwestia wymaga głębokiej analizy prawnej i etycznej oraz opracowania nowych standardów odpowiedzialności, które będą mogły być stosowane w odniesieniu do działań podejmowanych przez autonomiczne systemy AI.

Elliot Winter (2022) twierdzi jednak, że aby taka technologia działała dobrze, “maszyny musiałyby posiadać zaawansowane umiejętności obserwacji i rozpoznawania, a także wyrafinowaną zdolność podejmowania decyzji”. Jego zdaniem zdolności te zapewniłyby zgodność z zasadą rozróżnienia Międzynarodowego Prawa Humanitarnego (MPH), czyli zdolność do odróżnienia bojowników od osób nie biorących udziału w walce.

Jednakże, jeśli ludzie są pod wpływem emocji i uprzedzeń, tak samo jest z technologiami kodowanymi przez tych ludzi. Naukowcy wykazali, że technologie sztucznej inteligencji mają tendencję do nieproporcjonalnie błędnego przedstawiania małoreprezentowanych społeczności (Gebru 2020). Słaba interpretowalność takich systemów może doprowadzić do sytuacji, w której będą one podejmować decyzję na podstawie nierelewantnych zgodnie z MPH faktorów, takich jak płeć czy rasa.

Branka Marijan (2022) proponuje zasady, które mają na celu rzeczywiście ochronić cywilów i innych osób nie biorących udział w walce. Ona uważa, że kluczowe jest zapewnienie kontroli człowieka nad systemami uzbrojenia. Każdy system uzbrojenia, który zależy od danych wejściowych z czujników w celu podejmowania decyzji dotyczących wyboru celu i zaangażowania, powinien zostać uznany za wysoce ryzykowny i niedopuszczalny do użytku. Eksport technologii i systemów do krajów, które mogą używać ich niezgodnie z zamierzeniami eksportera, powinien być ograniczony i monitorowany, zwłaszcza z uwagi na wielozadaniowość tych technologii.

Etap III – AGI

Osiągnięcie AGI, czyli formy sztucznej inteligencji zdolnej do wykonywania dowolnych zadań intelektualnych na poziomie ludzkim lub jego przewyższającym, jest na razie odległą perspektywą. W ankiecie przeprowadzonej wśród 300 ekspertów w dziedzinie sztucznej inteligencji na całym świecie, mediana szacunków dotyczących czasu osiągnięcia AGI wyniosła 2062 (Walsh 2018). Nie wiemy, czego nam brakuje, aby przejść od AI do AGI, więc trudno jest określić, co musimy wymyślić, aby to osiągnąć lub jak długo może to potrwać. Nie istnieją jednak żadne znane nam prawa fizyki, które uniemożliwiłyby nam osiągnięcie tego celu. Dlatego warto pomyśleć i przygotować się na przyszłość AGI.

Osiągnięcie AGI stanowiłoby rewolucję nie tylko w dziedzinie militariów, ale w całej cywilizacji. AGI byłaby zdolna do samodzielnego planowania, przeprowadzania operacji i adaptacji do dynamicznie zmieniających się warunków w czasie rzeczywistym, co teoretycznie mogłoby oznaczać możliwość prowadzenia działań wojennych bez bezpośredniego udziału ludzi. Co więcej, ich udział w operacjach wojennych mógłby być uznany za nieetyczny, gdyż popełniają znacząco więcej błedów, co stanowi większe zagrożenie dla cywilów (Walsh 2022).

Jednakże, osiągnięcie AGI rodzi szereg pytań etycznych i strategicznych. Jeśli inteligentne maszyny posiadają zdolności na poziomie człowieka, to czy możemy uważać je za świadome, zdolne do odczuwania bólu? Jeśli tak, to czy istnieje moralny obowiązek chronienia ich przed cierpieniem? Jest to jednak bardzo spekulatywne, ponieważ wiemy zbyt mało o świadomości istot biologicznych, nie mówiąc już o maszynach.

Podsumowanie

Rozwój sztucznej inteligencji w dziedzinie wojskowości otwiera nowe możliwości, ale wiąże się również z istotnymi wyzwaniami etycznymi i prawnymi. AI może znacznie wpłynąć na skuteczność działań wojennych, ograniczając ryzyko błędów ludzkich i poprawiając precyzję ataków. Technologie AI mogą służyć jako narzędzia odstraszania i wpływu w geopolityce. Lepsze możliwości obronne zapewnione przez AI mogą skłonić inne państwa do rezygnacji z działań agresywnych. Jednocześnie innowacje w działaniach wojennych często są naśladowane przez przeciwników. Jeśli decyzje wspomagane przez AI i analizę danych wywiadowczych dają jednej ze stron konfliktu przewagę, możemy zakładać, że takie rozwiązania zostaną przyjęte przez drugą stronę. Może to prowadzić do geopolitycznej mentalności “wykorzystaj lub stracisz”, zmuszając przeciwników do szybszego podejmowania działań, co może prowadzić do gwałtownej eskalacji. Te dwie strony medalu są widoczne w większości poruszanych tematów, co zachęca nas do podjęcia dyskusji już teraz, zanim skutki nieregulowanego zastosowania sztucznej inteligencji staną się poważne.

Materiały do dalszego zgłębiania

Aby lepiej zrozumieć potencjalne zastosowania, zagrożenia i możliwe rozwiązania, polecam zapoznać się z serią esejów “The Ethics of Automated Warfare and Artificial Intelligence“, która była jednym z źródeł inspiracji dla tego postu.

Bibliografia

  1. Pinker, S. (2012). The better angels of our nature. Penguin.
  2. Radford, B. J., Dai, Y., Stoehr, N., Schein, A., Fernandez, M., & Sajid, H. (2023). Estimating conflict losses and reporting biases. Proceedings of the National Academy of Sciences120(34), e2307372120. doi:10.1073/pnas.2307372120
  3. Graham, T., & FitzGerald, K. M. (2023). Bots, Fake News and Election Conspiracies: Disinformation During the Republican Primary Debate and the Trump Interview.
  4. Crootof, R. (2022, November 28). AI and the Actual IHL Accountability Gap. Centre for International Governance Innovation. https://www.cigionline.org/articles/ai-and-the-actual-ihl-accountability-gap
  5. Winter, Elliot. 2022. “The Compatibility of Autonomous Weapons with the Principles of International Humanitarian Law.” Journal of Conflict and Security Law 27 (1): 1–20.
  6. Gebru, Timnit. 2020. “Race and Gender.” In The Oxford Handbook of Ethics of AI, edited by Markus D. Dubber, 252–69. New York, NY: Oxford University Press.
  7. Marijan, B. (2022, November 28). Autonomous weapons: the false promise of civilian protection. Centre for International Governance Innovation. https://www.cigionline.org/articles/autonomous-weapons-the-false-promise-of-civilian-protection/
  8. Walsh, Toby. 2018. 2062: The World That AI Made. Carlton, Australia: La Trobe University Press.
  9. Walsh, T. (2022, November 28). The Problem with Artificial (General) Intelligence in Warfare. Centre for International Governance Innovation. https://www.cigionline.org/articles/the-problem-with-artificial-general-intelligence-in-warfare/

Jeden komentarz

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…