Rozwój sztucznej inteligencji na polu walki stawia przed nami dylematy etyczne, których nie potrafimy jeszcze rozwiązać ani prawnie, ani moralnie. Z jednej strony wielkie firmy technologiczne próbują wyznaczać czerwone linie, odmawiając udziału w tworzeniu algorytmów decydujących o ludzkim życiu i śmierci. Z drugiej – współczesne konflikty zbrojne już teraz udowadniają, że w ferworze walki koncepcja „znaczącej ludzkiej kontroli” staje się fikcją, a algorytmiczne błędy klasyfikacji skutkują masowymi tragediami. Ten post to krytyczna analiza zderzenia technologicznego idealizmu z brutalną rzeczywistością, w której systemy takie jak izraelski program Lavender redefiniują zasady użycia siły, a odpowiedzialność za zbrodnie rozmywa się w gąszczu kodu.
Dolina Krzemowa kontra Departament Wojny

Debata nad etyką autonomicznych systemów uzbrojenia przez długi czas przypominała akademickie rozważania z nurtu science-fiction. Dziś jest to jednak najbardziej palący problem z pogranicza prawa międzynarodowego, technologii i wojskowości. Osią sporu jest to, do jakiego stopnia maszyna może wyręczać człowieka w podejmowaniu decyzji o użyciu siły oraz kto ponosi odpowiedzialność za jej błędy.
Szczególnie interesujące jest to, jak w tej debacie odnajduje się sama branża technologiczna. Wyraźnym echem odbił się głośny spór firmy Anthropic, jednego z liderów w tworzeniu wielkich modeli językowych, z amerykańskim Departamentem Obrony (czy też, używając obecnej nomenklatury, Departamentem Wojny).
Co ciekawe, opór giganta AI nie wynikał z wrodzonego pacyfizmu. Anthropic od dawna blisko współpracował z Pentagonem – ich modele operowały nawet w niejawnych sieciach wojskowych, pomagając w analizie danych czy logistyce. Firma miała jednak dwie nieprzekraczalne, wpisane w regulamin „czerwone linie”: zakaz wykorzystywania ich sztucznej inteligencji do masowej inwigilacji oraz do bezpośredniego rażenia celów bez ostatecznej decyzji człowieka.
Punkt zwrotny nadszedł, gdy wojsko postawiło twórcom AI ultimatum, żądając pełnego, nieograniczonego dostępu do modeli we wszystkich operacjach militarnych i usunięcia korporacyjnych obostrzeń. Anthropic kategorycznie odmówił.
Firma argumentowała to nie tylko troską o prawa człowieka, ale przede wszystkim twardą, inżynieryjną oceną własnych systemów. Algorytmy typu „czarna skrzynka” są z natury nieprzewidywalne. Nie jesteśmy w stanie zagwarantować, że system sztucznej inteligencji zawsze poprawnie zinterpretuje skomplikowane i wieloznaczne zasady użycia siły. W środowisku wojennym, gdzie niepewność danych jest ogromna, ryzyko błędu rośnie wykładniczo. Dolina Krzemowa zdaje się więc mówić: „nasze systemy nie są i długo nie będą gotowe na decydowanie o życiu ludzkim”. Jak podkreślono w publicznym stanowisku:
„Nie wierzymy, że obecne systemy sztucznej inteligencji, w tym nasze własne, są wystarczająco niezawodne, aby można było powierzyć im zadania, w których błąd może prowadzić do utraty życia ludzkiego, a w szczególności do zautomatyzowanego podejmowania decyzji o użyciu siły uderzeniowej. Etyka i prawo konfliktów zbrojnych wymagają ludzkiego osądu, którego maszyny nie potrafią naśladować.”
Reakcja rządu była bezprecedensowa. Za trzymanie się swoich inżynieryjnych i etycznych zasad, Departament Wojny umieścił amerykański start-up na czarnej liście jako „zagrożenie dla łańcucha dostaw”, traktując go na równi z wrogimi podmiotami zagranicznymi. Sprawa ostatecznie wylądowała w sądzie.
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
— Secretary of War Pete Hegseth (@SecWar) February 27, 2026
Powstaje więc otwarte pytanie: jak korporacyjne zasady i inżynieryjna ostrożność mają się do twardych realiów i militarnych ambicji mocarstw?
Iluzja ludzkiej kontroli w praktyce: Przypadek systemu Lavender

Idealizm Anthropic zderza się z murem brutalnej rzeczywistości konfliktów zbrojnych, czego najbardziej jaskrawym i kontrowersyjnym przykładem z przełomu 2023 i 2024 roku jest zastosowanie przez Siły Obronne Izraela systemu opartego na sztucznej inteligencji o nazwie „Lavender”. System ten był wykorzystywany podczas operacji w Strefie Gazy i służył do typowania tysięcy potencjalnych celów wojskowych (Abraham 2024).
To właśnie ten przypadek pokazał błahość koncepcji znaczącej kontroli ludzkiej. Według teorii prawa konfliktów zbrojnych każda decyzja wygenerowana przez maszynę musi zostać zweryfikowana przez człowieka. To oficer ma ocenić proporcjonalność ataku i zminimalizować ryzyko dla cywilów (Lieber Institute 2024).
W praktyce wyglądało to drastycznie inaczej. Jak donoszą raporty, algorytm Lavender oceniał prawdopodobieństwo powiązań Palestyńczyków z organizacjami militarnymi w skali 1-100. W szczytowych momentach oficerowie zatwierdzali cele wygenerowane przez maszynę średnio w 20 sekund (Abraham 2024). Człowiek w łańcuchu dowodzenia został sprowadzony do roli zatwierdzacza. Trudno tu mówić o jakiejkolwiek analizie dylematów ROE czy dogłębnej weryfikacji wywiadowczej – w 20 sekund można co najwyżej potwierdzić, czy cel jest kobietą czy mężczyzną i niewiele więcej.
Co gorsza, system nie był nieomylny. Z danych wynika, że Lavender charakteryzował się około 10-procentowym marginesem błędu w klasyfikacji. Wojsko uznało ten próg za „akceptowalny” operacyjnie. Algorytm często oznaczał osoby luźno powiązane z Hamasem lub po prostu posiadające podobne wzorce zachowań komunikacyjnych (Human Rights Watch 2024). Zastosowano także system wspomagający – „Where’s Daddy” – który śledził podejrzanych i informował, gdy wrócili do domów, co w połączeniu z użyciem niekierowanych bomb skutkowało uderzeniami w gęsto zaludnionych obszarach cywilnych (Davies 2024).
Jest to bezpośredni pomost do obaw firmy Anthropic przed masową inwigilacją. Aby algorytm działał sprawnie, potrzebuje gigantycznych zbiorów danych. Wymaga to monitorowania milionów ludzi jednocześnie, analizy ich metadanych z telefonów, lokalizacji i sieci społecznych. Technologia przekształca całe populacje w zbiory danych wejściowych, drastycznie naruszając prawo do prywatności w imię „precyzji” militarnej, która, jak widać, pozostaje wysoce ułomna.
Odpowiedzialność w cywilnych pojazdach autonomicznych

Gdy analizujemy problem AI w wojsku, warto zestawić go z obszarem, gdzie debata o autonomii i odpowiedzialności jest znacznie bardziej zaawansowana – z pojazdami autonomicznymi. Przemysł motoryzacyjny i ustawodawcy od lat zmagają się z pytaniem: kto odpowiada za wypadek?
W sferze cywilnej wypracowuje się złożone ramy prawne. Jeśli autonomiczne auto potrąci pieszego, badany jest cały łańcuch dostaw. Odpowiedzialność może ponosić kierowca (jeśli zignorował wezwanie systemu do przejęcia kontroli), producent samochodu (za wadliwe sensory) lub twórca oprogramowania (za błędy w kodzie i błędną klasyfikację przeszkody). Co więcej, algorytmy sterujące pojazdami są poddawane rygorystycznym testom i muszą być możliwe do zinterpretowania, aby w razie wypadku dało się odtworzyć, co zaważyło na decyzji maszyny.
Dlaczego na polu walki jest zupełnie inaczej? Jak zauważa Sekretarz Generalny ONZ, sztuczna inteligencja użyta w zbrojeniach drastycznie zaciera odpowiedzialność. Kiedy dochodzi do uderzenia na obiekt cywilny w wyniku błędu systemu takiego jak Lavender, łańcuch odpowiedzialności rozpada się na dwa obozy, które zrzucają z siebie winę.
Twórcy technologii (programiści i inżynierowie) umywają ręce, argumentując, że dostarczyli jedynie neutralne narzędzie statystyczne, a za ostateczne decyzje i sposób użycia oprogramowania odpowiadają wojsko oraz osoby wyżej postawione. Osoby decyzyjne (operatorzy, dowództwo i państwo) rozmywają odpowiedzialność wewnątrz własnych struktur. Szeregowi oficerowie tłumaczą się brakiem czasu i zaufaniem do maszyny, dowódcy zasłaniają się rachunkiem prawdopodobieństwa i „akceptowalnym błędem”, a państwo usprawiedliwiaja całą sytuację wyższą koniecznością.
W efekcie za śmierć, która była wynikiem algorytmicznego 10-procentowego błędu, nikt nie ponosi winy. O ile w przypadku pojazdów autonomicznych tworzymy prawo, by chronić każdego pojedynczego pieszego, o tyle w zautomatyzowanych systemach bojowych akceptujemy strukturalną niepewność i statystyczne ofiary śmiertelne jako koszt postępu technologicznego.
Podsumowanie
Zderzenie deklaracji gigantów takich jak Anthropic z praktyką zastosowania systemów celowniczych na nowoczesnym polu walki tworzy ponury obraz. Autonomia w broni nie rozwiązuje problemu dylematów moralnych i zasad ROE – ona je jedynie oddelegowuje do maszyn kierowanych jedynie prawdopodobieństwem i matematyką. Przypadek systemu Lavender obnaża bolesną prawdę: gdy maszyny przyspieszają wojnę do prędkości przetwarzania danych, rzekoma ludzka kontrola staje się wyłącznie mechanizmem obronnym dla sumień i kodeksów prawnych, a nie realnym bezpiecznikiem chroniącym niewinnych. Zanim pozwolimy sztucznej inteligencji na decydowanie o życiu i śmierci na polu bitwy, musimy ustalić zasady odpowiedzialności równie rygorystyczne, co te, których wymagamy od zwykłego, autonomicznego samochodu na naszych ulicach.
Źródła
- Anthropic. (2026). Statement on the comments from Secretary of War Pete Hegseth. https://www.anthropic.com/news/statement-comments-secretary-war
- Abraham, Y. (2024). ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza. +972 Magazine. https://www.972mag.com/lavender-ai-israeli-army-gaza/
- Davies, H. (2024). The IDF’s Use of AI in Gaza: A Case of Misplaced Purpose. Royal United Services Institute (RUSI). https://www.rusi.org/explore-our-research/publications/commentary/israel-defense-forces-use-ai-gaza-case-misplaced-purpose
- Human Rights Watch. (2024). Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza. Israeli Military’s Use of Digital Tools in GazaHuman Rights Watchhttps://www.hrw.org › 2024/09/10
- Lieber Institute West Point. (2024). The Gospel, Lavender, and the Law of Armed Conflict. https://lieber.westpoint.edu/gospel-lavender-law-armed-conflict/