Na początku XXI wieku uznawane przez większość ludzi za koncepty dalekiej przyszłości rodem z filmów science-fiction, dzisiaj wojna informacyjna i cybernetyczna są nieodłącznymi elementami każdego konfliktu. Mimo że koncepcja konfliktów międzynarodowych rozgrywanych poprzez wykorzystanie androidów znanych ze słynnej serii filmów “Terminator” nadal pozostaje wysoce nierealna, sama sfera sztucznej inteligencji oraz sposobów jej aplikacji w celu uzyskania przewagi nad przeciwnikiem rozwija się w niesamowitym tempie. Jakie więc są realne perspektywy wojny technologicznej i jak nadchodzące zmiany wpłyną na życie zwykłych ludzi? Zobacz dlaczego automatyzacja militarna stała się tak dużym priorytetem dla światowych potęg.
Taką potęgą są niewątpliwie Stany Zjednoczone, w których w 2018 roku z ramienia Sił Zbrojnych Stanów Zjednoczonych powstało tzw. Joint Artificial Intelligence Center (JAIC), którego celem miała być transformacja Departamentu Obrony Stanów Zjednoczonych poprzez przyspieszenie adopcji rozwiązań sztucznej inteligencji do wykonywania misji, rozwiązywania dużych i złożonych problemów oraz zapewnienie systemom obronnym dostęp w czasie rzeczywistym do ciągle rozwijających się zbiorów danych i narzędzi. Czy oznacza to, że już w najbliższej przyszłości możemy spodziewać się coraz szerszego wykorzystania w tym obszarze sztucznej inteligencji?
Jednym ze świeższych przykładów, dodatkowo bliższym dla Europejczyków, jest wojna informacyjna prowadzona między Rosją i Ukrainą, oparta głównie na propagandzie stosowanej w celu przekonania ludzi do słuszności rosyjskiej agresji. Jakie techniki zostały zastosowane przez Rosję oraz co można zrobić w przyszłości, aby chronić się nie tylko militarnie, ale również na płaszczyźnie informatycznej? Co powoduje że ta tematyka stała się tak gorąca? W celu zrozumienia tych trendów należy najpierw przeanalizować jak dokładnie działa dzisiejsza wojna informacyjna.
Wojna informacyjna
Według definicji NATO, wojna informacyjna to operacja podejmowana w celu zyskania przewagi informacyjnej nad przeciwnikiem. Sam koncept nie jest czymś nowym, natomiast rozwój technologii (głownie sztucznej inteligencji) umożliwił przeprowadzanie jej znacznie efektywniej i na większą skalę. Jednymi z większych różnic są przede wszystkim niskie bariery wejścia oraz zatarcie się granic konfliktów, spowodowane coraz szerszym dostępem do internetu, co powoduje uwikłanie w każdy taki konflikt ogromnej liczby osób trzecich. Impulsem dla wielu państw okazały się również zmiany w polityce międzynarodowej – biorąc za przykład ponownie Rosję, przełomem okazał się upadek bloku wschodniego, co spowodowało znaczne osłabienie kraju pod względem zasobów umożliwiających konkurowanie z Zachodem. Odpowiednie wykorzystanie wojny informacyjnej często umożliwiało Rosji konkurowanie z USA jak równy z równym (Galeotti 2014). Bardzo często potęga informatyczna pozwala zmniejszyć przewagę militarną przeciwnika, dlatego ważne jest odpowiednie przygotowanie obronne na tej płaszczyźnie nawet jeśli dana strona sama nie planuje wykorzystywać tego typu rozwiązań, chociażby z powodów etycznych.
Najczęściej stosowane techniki
Oceniając najświeższe światowe konflikty, można wyodrębnić wspólne, najczęstsze zachowania na polu wojny informacyjnej. Są to przede wszystkim:
- kontrola środków masowego przekazu (podawanie fałszywych informacji, cenzura)
- cyberataki (najczęściej wycelowane w jednostki rządowe przeciwnika i jego serwisy informacyjne, w celu uzyskania przewagi informacyjnej)
- wprowadzanie dezinformacji w social mediach (fabryki trolli, generujące upragniony przez agresora typ informacji za pomocą fałszywych kont; boty; tworzenie fake newsów)
- komunikacja z dziennikarzami m.in. w celu dostarczenia im fałszywych informacji
U podłoża wojny informacyjnej leży więc wykorzystanie informacji lub danych jako broni. Czym więc różni się ona od wojny cybernetycznej? Czy te pojęcia są wymienne?
Wojna cybernetyczna
Wbrew powszechnemu przekonaniu, istnieje pewna różnica między wojną informacyjną, a wojną cybernetyczną – ta druga opiera się przede wszystkim na bezpośrednim atakowaniu systemów cybernetycznych przeciwnika w celu uzyskania przewagi w faktycznej wojnie. Z racji technologii i metod wykorzystywanych na tej płaszczyźnie, mogłoby się wydawać że jest ona bezpośrednio dużo bardziej szkodliwa i niebezpieczny jest jej rozwój, natomiast należy brać pod uwagę jak ogromny wpływ na kształtowanie się społeczeństwa, a w szczególności młodych umysłów może mieć wojna informacyjna. Aby móc natomiast w ogóle porównać te zjawiska, należy również w tym przypadku ustalić jakie są najczęściej stosowane na cybernetycznym polu bitwy techniki.
Najczęściej stosowane techniki
- monitoring urządzeń i sieci, przechwytywanie ruchu
- podsłuch
- keylogging (rejestrowanie wciskanych klawiszy), wykorzystywanie luk w celu uzyskania dostępu do systemów
- ataki DDoS (przeprowadzany z wielu urządzeń jednocześnie rozproszony atak, mający na celu wyłączenie lub uszkodzenie danego systemu)
- innego rodzaju ataki aktywne, skierowane w serwisy przeciwnika
- próby zaburzenia wrogiej gospodarki
Wymienione powyżej metody prowadzenia wojny cybernetycznej służą w głównej mierze zaledwie jako dodatek do klasycznej wojny. Pozwalają one czasami na zyskanie ogromnej przewagi, natomiast żaden z nich nie jest w stanie zastąpić żołnierzy biorących udział w prawdziwej walce na froncie. Zakładając że w przyszłości możemy spodziewać się kolejnych konfliktów zbrojnych, stajemy przed kilkoma kluczowymi pytaniami – czy zapewnienie sobie bezpieczeństwa informacyjnego i technologicznego jest wystarczające, czy koniecznym jest branie udziału w wyścigu zbrojnym polegającym na rozwoju broni i robotów które w przyszłości mogłyby zastąpić żołnierzy? Czy możliwe jest uniknięcie takiego, potencjalnie mrocznego, scenariusza, czy rozwój wykorzystania sztucznej inteligencji podczas samej wymiany ognia i walki w przyszłości jest już nieunikniony? Odpowiedź na to pytanie może, wbrew pozorom, zaskoczyć wielu czytelników.
Sztuczna inteligencja i jej rosnąca rola w konfliktach zbrojnych
Dość powszechna jest opinia, że sztuczna inteligencja stanie się jednym z głównych katalizatorów które zmienią oblicze nowoczesnej wojny. Aktualnie natomiast jej zastosowanie dużo więcej wspólnego ma z wykonywaniem najprostszych, powtarzalnych zadań, niż z kierowaniem na polu bitwy armią zabójczych robotów. Fundamentem działania każdego programu mającego na celu wykonywanie określonego zadania, jest uprzednie nauczenie go tego przez człowieka. Mimo, że wielu ekspertów uważa tempo rozwoju SI za zbyt duże i znacznie przekraczające oczekiwania sprzed lat (Caughill 2017), to nadal największym ograniczeniem jest ograniczona w dużej mierze wielozadaniowość. Ludzkość jest już w stanie bez większych problemów stworzyć program, który bez najmniejszych problemów będzie sobie radzić z wykonywaniem określonego zadania, natomiast będzie on ograniczony elementami losowymi, które dla człowieka są czymś normalnym, tzn. niespodziewanie zmiennymi warunkami, okolicznościami, niespodziewanym przebiegiem zdarzeń o którym komputer nie wiedział.
Z tego powodu taka technologia w dzisiejszych czasach jest wykorzystywana w wojnie głównie do schematycznych czynności, takich jak np. rozpoznawanie danego typu obiektu (np. czołgu) na zdjęciach satelitarnych, wykrywanie w tłumie konkretnych twarzy za pomocą monitoringu, prognozowanie ewentualnych awarii sprzętów oraz systemów zbrojeniowych oraz symulowanie określonych strategii walki.
Co jest zatem największym wyzwaniem dla sztucznej inteligencji?
Wspomniany wcześniej problem wielozadaniowości sprawia, że zazwyczaj twórcy skupiają się na tym, aby ich program rozwiązywał jak najlepiej dany, określony problem. W przypadku rozpoznawania konkretnego obiektu na zdjęciach problemem jest np. wymagana moc obliczeniowa i ilość danych które ów program wykorzysta do nauki. Przykładowo, gdybyśmy chcieli wykrywać każdy rodzaj broni (a są ich tysiące), musielibyśmy potencjalnie nauczyć go rozpoznawania każdego z nich. Wymagane są do tego ogromne zbiory rzeczywistych zdjęć, które najczęściej posiadają określone jednostki niechętnie dzielące się nimi publicznie (zdjęcia te muszą być bowiem opisane w odpowiedni sposób). Stworzenie i utrzymanie takiego systemu wymagałoby również ogromnych zasobów, a więc koszty byłyby niewspółmierne w porównaniu do korzyści. Naukowców zniechęca również fakt, iż mimo perfekcyjnie zaprojektowanego systemu, może on być w stosunkowo prosty sposób “ogłupiony” oraz wprowadzony w błąd przez potencjalnych agresorów (Danks 2020).
Kolejną sferą w której nadal króluje człowiek jest umiejętność podejmowania złożonych decyzji, oraz wyciągania wniosków. Mimo, że SI jest w stanie samodzielnie się uczyć i poprawiać skuteczność działania, to bardzo często problemem jest rzeczywiste uargumentowanie wybranego rozwiązania – szczególnie w przypadku wojny, bardzo dużo zachowań opiera się zarówno na dostępnych informacjach, jak i na ludzkich emocjach, czy też etyce. Sama kwestia etyki jest jednym z najbardziej kontrowersyjnych tematów jeśli chodzi o SI, i często używana jest ona jako podstawa argumentacji przeciwników zastosowania takich rozwiązań. Niezależnie od indywidualnego podejścia i wyznawanej szkoły etyki, wszystko wskazuje na to, że w ciągu maksymalnie 20 lat SI i roboty będą odgrywać bardzo ważną rolę w każdym konflikcie wojennym (O’Hanlon 2018).
W jaki sposób SI i Data Science są wykorzystywane w dzisiejszych konfliktach zbrojnych?
Jednym z najintensywniej rozwijanych rozwiązań są autonomiczne drony zdolne do wykrywania i zabijania celów z wykorzystaniem rozpoznawania obrazu. Takim urządzeniem jest m.in turecki dron Kargu-2, zdolny do operowania bez potrzeby dostępu do sieci GPS, co z założenia miało odciążyć personel wojskowy, a stało się kolejnym krokiem w stronę świata ze wspomnianego wcześniej Terminatora. Sama Turcja, jak i wielu zwolenników takich rozwiązań, broni się przede wszystkim argumentami o ograniczeniu strat w cywilach (Tekingunduz 2021). Problem stanowi jednak wspomniana wcześniej omyłkowość takich systemów – czy jeśli w stosunkowo łatwy sposób możemy oszukać system rozpoznawania twarzy, to czy takie drony powinny w ogóle być brane pod uwagę jako narzędzie wykorzystywane w prawdziwej wojnie?
Tzw. śmiercionośna broń autonomiczna (LAW – Lethal Autonomous Weapon) jest używana przez ludzkość od setek lat (zaliczają się do niej chociażby miny lądowe, czy działka strażnicze), natomiast jeszcze do niedawna była ona wykorzystywana głównie w celach obronnych. Wraz z rozwojem technologii rozwiązania tego typu zaczęły być wykorzystywane właśnie do ataków, i oprócz wspomnianych dronów tworzone są m.in. latające oraz pływające statki bezzałogowe, czołgi, czy też nowoczesne głowice z samonaprowadzaniem. Należy natomiast pamiętać o najważniejszej kwestii – komputer nie jest w stanie w żadnym stopniu odtworzyć ludzkich emocji, dlatego należy zadać sobie następujące pytanie – czy konflikty zbrojne powinny być rozwiązywane jak ciągi zer i jedynki, czy jednak konieczne jest indywidualne podejście do każdej sytuacji i dokładne przeanalizowanie sytuacji przez człowieka? Nowoczesne technologie w wielu kwestiach okazały się nieocenioną pomocą, natomiast konflikty międzyludzkie są na tyle złożone, że z pewnością jeszcze przez wiele lat ich dokładna interpretacja przez komputer nie będzie możliwa. Z tego powodu wielu ekspertów uważa, że wojna w Ukrainie powinna być dla ludzkości ostatecznym ostrzeżeniem i impulsem do rozsądnych regulacji takich rozwiązań (Marijan 2022).
Kwestia sprawiedliwości i etyki
Całe zjawisko stanowi również duży problem z punktu widzenia etyki czy też sprawiedliwości – czy sprawiedliwym jest uzyskiwanie znaczącej przewagi dzięki użyciu wymienionych wcześniej technologii? Wojna od zawsze rządziła się swoimi prawami, dlatego wykorzystywanie wszelkich możliwych rozwiązań w celu odniesienia zwycięstwa nie jest niczym zaskakującym, natomiast wraz z rozwojem cywilizacji ludzkość powinna ustalać pewnego rodzaju normy (takie jak np. zakaz użycia broni chemicznej). O ile niemal każdy z nas jest w stanie przyznać, że cyberataki na wrogie jednostki rządowe nie są uczciwe, to należy zaakceptować że takie zabiegi będą coraz częstsze, tak więc każdy kraj powinien być na nie przygotowany.
Bardziej kontrowersyjną kwestią jest natomiast wspomniana autonomizacja procesu odbierania ludzkiego życia – czy skoro ludzie regularnie popełniają błędy na linii frontu, to czy zaprogramowane przez nich roboty, pozbawione emocji, będą w stanie w lepszy sposób dostosowywać się do wojennych warunków i podejmować lepsze – z ludzkiego punktu widzenia – decyzje? Możemy sobie tylko wyobrazić jak wyglądałaby wojna w Ukrainie, gdyby oprócz aparatu propagandowego Rosja wykorzystała również m.in. drony zabijające żywe cele. Jedno jest pewne – kwestie te nie są wystarczająco nagłaśniane publicznie, a głowy państw powinny przyjąć zdecydowane stanowisko w świecie, w którym rola sztucznej inteligencja z dnia na dzień staje się coraz większa.
Podsumowanie
Sztuczna inteligencja oraz wszechobecne dane stają się coraz ważniejszym elementem polityki międzynarodowej – a szczególnie wszelkiego rodzaju konfliktów. Zaczynając od rozprzestrzeniania propagandy w internecie, poprzez ataki na systemy informacyjne, aż po autonomizację broni i ograniczenie udziału człowieka na froncie – technologia z pewnością będzie determinowała naszą przyszłość. Wyścig zbrojeniowy w tej kwestii jest nieunikniony, natomiast ludzkość powinna robić wszystko aby w odpowiedni sposób regulować i zabezpieczać takie rozwiązania, potrzebne są również długie debaty w celu ustalenia czy dane rozwiązania powinny w ogóle być wykorzystywane. Należy również pamiętać o tym, że popularyzacja danych urządzeń sprawi, że będą one również łatwiej dostępne dla przestępców czy terrorystów. Być może w niektórych kwestiach najrozsądniejszym rozwiązaniem byłoby wprowadzenie globalnych zakazów rozwijania danych technologii. Tak jak w przypadku większości nowości technologicznych, spektrum zastosowania SI jest ogromne, a ograniczenie go jedynie do zastosowania w dobrych celach może okazać się niemożliwe.
Źródła
Galeotti, M. (2014), “Russia is punching above its weight”, The Moscow Times, https://themoscowtimes.com/articles/russia-is-punching-above-its-weight-36931
Caughill, P. (2017), “AI is Developing Faster than Experts Imagined. Do We Need a Speed Limit?”, https://futurism.com/ai-is-developing-faster-than-experts-imagined-do-we-need-a-speed-limit
Danks, D. (2020) “How Adversarial Attacks Could Destabilize Military AI Systems. Adversarial attacks threaten the safety of AI and robotic technologies. Can we stop them?”, https://spectrum.ieee.org/adversarial-attacks-and-ai-systems
O’Hanlon, Michael E. (2018) “The role of AI in future warfare”, https://www.brookings.edu/research/ai-and-future-warfare/
Tekingunduz, A. (2021) “A series of autonomous drones gives Turkey a military edge”, https://www.trtworld.com/magazine/a-series-of-autonomous-drones-gives-turkey-a-military-edge-47201
Marijan, B. (2022) “AI-Influenced Weapons Need Better Regulation”, https://www.scientificamerican.com/article/ai-influenced-weapons-need-better-regulation/
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…