{"id":9243,"date":"2026-04-20T20:34:17","date_gmt":"2026-04-20T20:34:17","guid":{"rendered":"https:\/\/architeles.eu\/ethics\/?p=9243"},"modified":"2026-04-21T06:17:24","modified_gmt":"2026-04-21T06:17:24","slug":"kto-pociaga-za-cyfrowy-spust-iluzja-meaningful-human-control-i-etyka-broni-autonomicznej","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2026\/04\/20\/kto-pociaga-za-cyfrowy-spust-iluzja-meaningful-human-control-i-etyka-broni-autonomicznej\/","title":{"rendered":"Kto poci\u0105ga za cyfrowy spust? Iluzja ludzkiej kontroli i etyka broni autonomicznej"},"content":{"rendered":"<p><b>Rozw\u00f3j sztucznej inteligencji na polu walki stawia przed nami dylematy etyczne, kt\u00f3rych nie potrafimy jeszcze rozwi\u0105za\u0107 ani prawnie, ani moralnie. Z jednej strony wielkie firmy technologiczne pr\u00f3buj\u0105 wyznacza\u0107 czerwone linie, odmawiaj\u0105c udzia\u0142u w tworzeniu algorytm\u00f3w decyduj\u0105cych o ludzkim \u017cyciu i \u015bmierci. Z drugiej &#8211; wsp\u00f3\u0142czesne konflikty zbrojne ju\u017c teraz udowadniaj\u0105, \u017ce w ferworze walki koncepcja \u201eznacz\u0105cej ludzkiej kontroli\u201d staje si\u0119 fikcj\u0105, a algorytmiczne b\u0142\u0119dy klasyfikacji skutkuj\u0105 masowymi tragediami. Ten post to krytyczna analiza zderzenia technologicznego idealizmu z brutaln\u0105 rzeczywisto\u015bci\u0105, w kt\u00f3rej systemy takie jak izraelski program Lavender redefiniuj\u0105 zasady u\u017cycia si\u0142y, a odpowiedzialno\u015b\u0107 za zbrodnie rozmywa si\u0119 w g\u0105szczu kodu.<\/b><\/p>\n<p><!--more--><\/p>\n<h1><b>Dolina Krzemowa kontra Departament Wojny<\/b><\/h1>\n<p><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-9257 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/trump-vs-anthropic-282459719-16x9.jpeg-300x169.webp\" alt=\"\" width=\"567\" height=\"319\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/trump-vs-anthropic-282459719-16x9.jpeg-300x169.webp 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/trump-vs-anthropic-282459719-16x9.jpeg.webp 690w\" sizes=\"auto, (max-width: 567px) 100vw, 567px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Debata nad etyk\u0105 autonomicznych system\u00f3w uzbrojenia przez d\u0142ugi czas przypomina\u0142a akademickie rozwa\u017cania z nurtu <strong>science-fiction<\/strong>. Dzi\u015b jest to jednak najbardziej pal\u0105cy problem z pogranicza prawa mi\u0119dzynarodowego, technologii i wojskowo\u015bci. Osi\u0105 sporu jest to, do jakiego stopnia maszyna mo\u017ce wyr\u0119cza\u0107 cz\u0142owieka w podejmowaniu decyzji o u\u017cyciu si\u0142y oraz <strong>kto ponosi odpowiedzialno\u015b\u0107<\/strong> za jej b\u0142\u0119dy.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Szczeg\u00f3lnie interesuj\u0105ce jest to, jak w tej debacie odnajduje si\u0119 sama bran\u017ca technologiczna. Wyra\u017anym echem odbi\u0142 si\u0119 g\u0142o\u015bny sp\u00f3r firmy Anthropic, jednego z lider\u00f3w w tworzeniu wielkich modeli j\u0119zykowych, z ameryka\u0144skim Departamentem Obrony (czy te\u017c, u\u017cywaj\u0105c obecnej nomenklatury, Departamentem Wojny).<\/span><\/p>\n<p><span style=\"font-weight: 400\">Co ciekawe, op\u00f3r giganta AI nie wynika\u0142 z wrodzonego pacyfizmu. <strong>Anthropic od dawna<\/strong> blisko wsp\u00f3\u0142pracowa\u0142 <strong>z Pentagonem<\/strong> &#8211; ich modele operowa\u0142y nawet w niejawnych sieciach wojskowych, pomagaj\u0105c w analizie danych czy logistyce. Firma mia\u0142a jednak dwie nieprzekraczalne, wpisane w regulamin <strong>\u201eczerwone linie\u201d<\/strong>: zakaz wykorzystywania ich sztucznej inteligencji do masowej inwigilacji oraz do bezpo\u015bredniego ra\u017cenia cel\u00f3w bez ostatecznej decyzji cz\u0142owieka.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Punkt zwrotny nadszed\u0142, gdy wojsko postawi\u0142o tw\u00f3rcom AI ultimatum, \u017c\u0105daj\u0105c pe\u0142nego, nieograniczonego dost\u0119pu do modeli we wszystkich operacjach militarnych i usuni\u0119cia korporacyjnych obostrze\u0144. Anthropic kategorycznie odm\u00f3wi\u0142.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Firma argumentowa\u0142a to nie tylko trosk\u0105 o prawa cz\u0142owieka, ale przede wszystkim tward\u0105, <strong>in\u017cynieryjn\u0105 ocen\u0105 w\u0142asnych system\u00f3w<\/strong>. Algorytmy typu <strong>\u201eczarna skrzynka\u201d<\/strong> s\u0105 z natury nieprzewidywalne. Nie jeste\u015bmy w stanie zagwarantowa\u0107, \u017ce system sztucznej inteligencji zawsze poprawnie zinterpretuje <strong>skomplikowane i wieloznaczne zasady u\u017cycia si\u0142y<\/strong>. W \u015brodowisku wojennym, gdzie niepewno\u015b\u0107 danych jest ogromna, ryzyko b\u0142\u0119du ro\u015bnie wyk\u0142adniczo. Dolina Krzemowa zdaje si\u0119 wi\u0119c m\u00f3wi\u0107: \u201enasze systemy nie s\u0105 i d\u0142ugo nie b\u0119d\u0105 gotowe na decydowanie o \u017cyciu ludzkim\u201d. Jak podkre\u015blono w publicznym stanowisku:<\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400\">\u201eNie wierzymy, \u017ce obecne systemy sztucznej inteligencji, w tym nasze w\u0142asne, s\u0105 wystarczaj\u0105co niezawodne, aby mo\u017cna by\u0142o powierzy\u0107 im zadania, w kt\u00f3rych b\u0142\u0105d mo\u017ce prowadzi\u0107 do utraty \u017cycia ludzkiego, a w szczeg\u00f3lno\u015bci do zautomatyzowanego podejmowania decyzji o u\u017cyciu si\u0142y uderzeniowej. Etyka i prawo konflikt\u00f3w zbrojnych wymagaj\u0105 ludzkiego os\u0105du, kt\u00f3rego maszyny nie potrafi\u0105 na\u015bladowa\u0107.\u201d<\/span><\/i><\/p><\/blockquote>\n<p><span style=\"font-weight: 400\">Reakcja rz\u0105du by\u0142a bezprecedensowa. Za trzymanie si\u0119 swoich in\u017cynieryjnych i etycznych zasad, Departament Wojny umie\u015bci\u0142 ameryka\u0144ski start-up na czarnej li\u015bcie jako <strong>\u201ezagro\u017cenie dla \u0142a\u0144cucha dostaw\u201d<\/strong>, traktuj\u0105c go na r\u00f3wni z wrogimi podmiotami zagranicznymi. Sprawa ostatecznie wyl\u0105dowa\u0142a w s\u0105dzie.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.<\/p>\n<p>Our position has never wavered and will never waver: the Department of War must have full, unrestricted\u2026<\/p>\n<p>\u2014 Secretary of War Pete Hegseth (@SecWar) <a href=\"https:\/\/twitter.com\/SecWar\/status\/2027507717469049070?ref_src=twsrc%5Etfw\">February 27, 2026<\/a><\/p><\/blockquote>\n<p><span style=\"font-weight: 400\">Powstaje wi\u0119c otwarte pytanie: jak korporacyjne zasady i in\u017cynieryjna ostro\u017cno\u015b\u0107 maj\u0105 si\u0119 do twardych reali\u00f3w i militarnych ambicji mocarstw?<\/span><\/p>\n<h1><b>Iluzja ludzkiej kontroli w praktyce: Przypadek systemu Lavender<\/b><\/h1>\n<p><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-9267 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1-300x200.jpg\" alt=\"\" width=\"603\" height=\"402\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1-300x200.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1-1024x683.jpg 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1-768x512.jpg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1-1536x1024.jpg 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1-75x50.jpg 75w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/F231117ARK97-1.jpg 2048w\" sizes=\"auto, (max-width: 603px) 100vw, 603px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Idealizm Anthropic zderza si\u0119 z murem brutalnej rzeczywisto\u015bci konflikt\u00f3w zbrojnych, czego najbardziej jaskrawym i kontrowersyjnym przyk\u0142adem z prze\u0142omu 2023 i 2024 roku jest zastosowanie przez Si\u0142y Obronne Izraela systemu opartego na sztucznej inteligencji o nazwie \u201eLavender\u201d. System ten by\u0142 wykorzystywany podczas operacji w Strefie Gazy i s\u0142u\u017cy\u0142 <strong>do typowania tysi\u0119cy potencjalnych cel\u00f3w wojskowych <\/strong><\/span><i><span style=\"font-weight: 400\">(Abraham 2024)<\/span><\/i><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">To w\u0142a\u015bnie ten przypadek pokaza\u0142 b\u0142aho\u015b\u0107 koncepcji <\/span><span style=\"font-weight: 400\">znacz\u0105cej kontroli ludzkiej. Wed\u0142ug teorii prawa konflikt\u00f3w zbrojnych ka\u017cda decyzja wygenerowana przez maszyn\u0119 musi zosta\u0107 zweryfikowana przez cz\u0142owieka. To oficer ma oceni\u0107 proporcjonalno\u015b\u0107 ataku i zminimalizowa\u0107 ryzyko dla cywil\u00f3w <\/span><i><span style=\"font-weight: 400\">(Lieber Institute 2024)<\/span><\/i><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">W praktyce wygl\u0105da\u0142o to drastycznie inaczej. Jak donosz\u0105 raporty, algorytm Lavender ocenia\u0142 prawdopodobie\u0144stwo <strong>powi\u0105za\u0144<\/strong> Palesty\u0144czyk\u00f3w z organizacjami militarnymi w skali <strong>1-100<\/strong>. W szczytowych momentach oficerowie zatwierdzali cele wygenerowane przez maszyn\u0119 \u015brednio w 20 sekund <\/span><i><span style=\"font-weight: 400\">(Abraham 2024)<\/span><\/i><span style=\"font-weight: 400\">. Cz\u0142owiek w \u0142a\u0144cuchu dowodzenia zosta\u0142 sprowadzony do <strong>roli zatwierdzacza<\/strong>. Trudno tu m\u00f3wi\u0107 o jakiejkolwiek analizie dylemat\u00f3w ROE czy dog\u0142\u0119bnej weryfikacji wywiadowczej &#8211; w <strong>20 sekund<\/strong> mo\u017cna co najwy\u017cej potwierdzi\u0107, czy cel jest kobiet\u0105 czy m\u0119\u017cczyzn\u0105 i niewiele wi\u0119cej.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Co gorsza, system nie by\u0142 nieomylny. Z danych wynika, \u017ce Lavender charakteryzowa\u0142 si\u0119 oko\u0142o 10-procentowym marginesem b\u0142\u0119du w klasyfikacji. Wojsko uzna\u0142o ten pr\u00f3g za \u201eakceptowalny\u201d operacyjnie. Algorytm cz\u0119sto oznacza\u0142 osoby lu\u017ano powi\u0105zane z Hamasem lub po prostu posiadaj\u0105ce podobne wzorce zachowa\u0144 komunikacyjnych <\/span><i><span style=\"font-weight: 400\">(Human Rights Watch 2024)<\/span><\/i><span style=\"font-weight: 400\">. Zastosowano tak\u017ce system wspomagaj\u0105cy &#8211; \u201eWhere&#8217;s Daddy\u201d &#8211; kt\u00f3ry \u015bledzi\u0142 podejrzanych i informowa\u0142, gdy wr\u00f3cili do dom\u00f3w, co w po\u0142\u0105czeniu z u\u017cyciem niekierowanych bomb skutkowa\u0142o uderzeniami w g\u0119sto zaludnionych obszarach cywilnych <\/span><i><span style=\"font-weight: 400\">(Davies 2024)<\/span><\/i><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Jest to bezpo\u015bredni pomost do obaw firmy Anthropic przed masow\u0105 inwigilacj\u0105. Aby algorytm dzia\u0142a\u0142 sprawnie, <strong>potrzebuje gigantycznych zbior\u00f3w danych<\/strong>. Wymaga to monitorowania milion\u00f3w ludzi jednocze\u015bnie, analizy ich metadanych z telefon\u00f3w, lokalizacji i sieci spo\u0142ecznych. Technologia przekszta\u0142ca ca\u0142e populacje w zbiory danych wej\u015bciowych, drastycznie naruszaj\u0105c prawo do prywatno\u015bci w imi\u0119 &#8222;precyzji&#8221; militarnej, kt\u00f3ra, jak wida\u0107, pozostaje wysoce u\u0142omna.<\/span><\/p>\n<h1><b>Odpowiedzialno\u015b\u0107 w cywilnych pojazdach autonomicznych<\/b><\/h1>\n<p><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-9276 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/brak-kierowcy-w-samochodzie-1200x900-1-300x225.webp\" alt=\"\" width=\"620\" height=\"465\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/brak-kierowcy-w-samochodzie-1200x900-1-300x225.webp 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/brak-kierowcy-w-samochodzie-1200x900-1-1024x768.webp 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/brak-kierowcy-w-samochodzie-1200x900-1-768x576.webp 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/brak-kierowcy-w-samochodzie-1200x900-1.webp 1200w\" sizes=\"auto, (max-width: 620px) 100vw, 620px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Gdy analizujemy problem AI w wojsku, warto zestawi\u0107 go z obszarem, gdzie debata o autonomii i odpowiedzialno\u015bci jest znacznie bardziej zaawansowana &#8211; z <strong>pojazdami autonomicznymi<\/strong>. Przemys\u0142 motoryzacyjny i ustawodawcy od lat zmagaj\u0105 si\u0119 z pytaniem: <strong>kto odpowiada za wypadek?<\/strong><\/span><\/p>\n<p><span style=\"font-weight: 400\">W sferze cywilnej wypracowuje si\u0119 z\u0142o\u017cone ramy prawne. Je\u015bli autonomiczne auto potr\u0105ci pieszego, badany jest ca\u0142y \u0142a\u0144cuch dostaw. Odpowiedzialno\u015b\u0107 mo\u017ce ponosi\u0107 kierowca (je\u015bli zignorowa\u0142 wezwanie systemu do przej\u0119cia kontroli), producent samochodu (za wadliwe sensory) lub tw\u00f3rca oprogramowania (za b\u0142\u0119dy w kodzie i b\u0142\u0119dn\u0105 klasyfikacj\u0119 przeszkody). Co wi\u0119cej, algorytmy steruj\u0105ce pojazdami s\u0105 poddawane rygorystycznym testom i musz\u0105 by\u0107 <strong>mo\u017cliwe do zinterpretowania<\/strong><\/span><span style=\"font-weight: 400\">, aby w razie wypadku da\u0142o si\u0119 <strong>odtworzy\u0107<\/strong>, co zawa\u017cy\u0142o na decyzji maszyny.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dlaczego na polu walki jest zupe\u0142nie inaczej? Jak zauwa\u017ca Sekretarz Generalny ONZ, sztuczna inteligencja u\u017cyta w zbrojeniach drastycznie zaciera odpowiedzialno\u015b\u0107<\/span><span style=\"font-weight: 400\">. Kiedy dochodzi do uderzenia na obiekt cywilny w wyniku b\u0142\u0119du systemu takiego jak Lavender, \u0142a\u0144cuch odpowiedzialno\u015bci rozpada si\u0119 na dwa obozy, kt\u00f3re zrzucaj\u0105 z siebie win\u0119. <\/span><\/p>\n<p><b>Tw\u00f3rcy technologii (programi\u015bci i in\u017cynierowie)<\/b><span style=\"font-weight: 400\"> umywaj\u0105 r\u0119ce, argumentuj\u0105c, \u017ce dostarczyli jedynie neutralne narz\u0119dzie statystyczne, a za ostateczne decyzje i spos\u00f3b u\u017cycia oprogramowania odpowiadaj\u0105 wojsko oraz osoby wy\u017cej postawione. <\/span><b>Osoby decyzyjne (operatorzy, dow\u00f3dztwo i pa\u0144stwo)<\/b><span style=\"font-weight: 400\"> rozmywaj\u0105 odpowiedzialno\u015b\u0107 wewn\u0105trz w\u0142asnych struktur. Szeregowi oficerowie t\u0142umacz\u0105 si\u0119 brakiem czasu i zaufaniem do maszyny, dow\u00f3dcy zas\u0142aniaj\u0105 si\u0119 rachunkiem prawdopodobie\u0144stwa i \u201eakceptowalnym b\u0142\u0119dem\u201d, a pa\u0144stwo usprawiedliwiaja ca\u0142\u0105 sytuacj\u0119 wy\u017csz\u0105 konieczno\u015bci\u0105.<\/span><\/p>\n<p><span style=\"font-weight: 400\">W efekcie za \u015bmier\u0107, kt\u00f3ra by\u0142a wynikiem algorytmicznego <strong>10-procentowego b\u0142\u0119du<\/strong>, nikt nie ponosi winy. O ile w przypadku pojazd\u00f3w autonomicznych tworzymy prawo, by chroni\u0107 ka\u017cdego pojedynczego pieszego, o tyle w zautomatyzowanych systemach bojowych akceptujemy strukturaln\u0105 niepewno\u015b\u0107 i statystyczne ofiary \u015bmiertelne jako koszt post\u0119pu technologicznego.<\/span><\/p>\n<h1>Podsumowanie<\/h1>\n<p><span style=\"font-weight: 400\">Zderzenie deklaracji gigant\u00f3w takich jak Anthropic z praktyk\u0105 zastosowania system\u00f3w celowniczych na nowoczesnym polu walki tworzy ponury obraz. Autonomia w broni nie rozwi\u0105zuje problemu dylemat\u00f3w moralnych i zasad ROE &#8211; ona je jedynie oddelegowuje do maszyn kierowanych jedynie prawdopodobie\u0144stwem i matematyk\u0105. Przypadek systemu Lavender obna\u017ca bolesn\u0105 prawd\u0119: gdy maszyny przyspieszaj\u0105 wojn\u0119 do pr\u0119dko\u015bci przetwarzania danych, rzekoma ludzka kontrola staje si\u0119 wy\u0142\u0105cznie mechanizmem obronnym dla sumie\u0144 i kodeks\u00f3w prawnych, a nie realnym bezpiecznikiem chroni\u0105cym niewinnych. Zanim pozwolimy sztucznej inteligencji na decydowanie o \u017cyciu i \u015bmierci na polu bitwy, musimy ustali\u0107 zasady odpowiedzialno\u015bci r\u00f3wnie rygorystyczne, co te, kt\u00f3rych wymagamy od zwyk\u0142ego, autonomicznego samochodu na naszych ulicach.<\/span><\/p>\n<h1>\u0179r\u00f3d\u0142a<\/h1>\n<ul>\n<li><span style=\"font-weight: 400\">Anthropic. (2026). <\/span><i><span style=\"font-weight: 400\">Statement on the comments from Secretary of War Pete Hegseth<\/span><\/i><span style=\"font-weight: 400\">.<\/span><a href=\"https:\/\/www.anthropic.com\/news\/statement-comments-secretary-war\"> <span style=\"font-weight: 400\">https:\/\/www.anthropic.com\/news\/statement-comments-secretary-war<\/span><\/a><\/li>\n<li><span style=\"font-weight: 400\">Abraham, Y. (2024). \u2018Lavender\u2019: The AI machine directing Israel\u2019s bombing spree in Gaza. <\/span><i><span style=\"font-weight: 400\">+972 Magazine<\/span><\/i><span style=\"font-weight: 400\">.\u00a0<a href=\"https:\/\/www.972mag.com\/lavender-ai-israeli-army-gaza\/\" target=\"_blank\" rel=\"noopener\">https:\/\/www.972mag.com\/lavender-ai-israeli-army-gaza\/<\/a><\/span><\/li>\n<li><span style=\"font-weight: 400\">Davies, H. (2024). The IDF&#8217;s Use of AI in Gaza: A Case of Misplaced Purpose. <\/span><i><span style=\"font-weight: 400\">Royal United Services Institute (RUSI)<\/span><\/i><span style=\"font-weight: 400\">.\u00a0<a href=\"https:\/\/www.rusi.org\/explore-our-research\/publications\/commentary\/israel-defense-forces-use-ai-gaza-case-misplaced-purpose\" target=\"_blank\" rel=\"noopener\">https:\/\/www.rusi.org\/explore-our-research\/publications\/commentary\/israel-defense-forces-use-ai-gaza-case-misplaced-purpose<\/a><\/span><\/li>\n<li><span style=\"font-weight: 400\">Human Rights Watch. (2024). <\/span><i><span style=\"font-weight: 400\">Questions and Answers: Israeli Military&#8217;s Use of Digital Tools in Gaza<\/span><\/i><span style=\"font-weight: 400\">. <a href=\"https:\/\/www.hrw.org\/news\/2024\/09\/10\/questions-and-answers-israeli-militarys-use-of-digital-tools-in-gaza\">Israeli Military&#8217;s Use of Digital Tools in GazaHuman Rights Watchhttps:\/\/www.hrw.org \u203a 2024\/09\/10<\/a><\/span><\/li>\n<li><span style=\"font-weight: 400\">Lieber Institute West Point. (2024). <\/span><i><span style=\"font-weight: 400\">The Gospel, Lavender, and the Law of Armed Conflict<\/span><\/i><span style=\"font-weight: 400\">.\u00a0<a href=\"https:\/\/lieber.westpoint.edu\/gospel-lavender-law-armed-conflict\/\" target=\"_blank\" rel=\"noopener\">https:\/\/lieber.westpoint.edu\/gospel-lavender-law-armed-conflict\/<\/a><\/span><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Rozw\u00f3j sztucznej inteligencji na polu walki stawia przed nami dylematy etyczne, kt\u00f3rych nie potrafimy jeszcze rozwi\u0105za\u0107 ani prawnie, ani moralnie. Z jednej strony wielkie firmy technologiczne pr\u00f3buj\u0105 wyznacza\u0107 czerwone linie, odmawiaj\u0105c udzia\u0142u w tworzeniu algorytm\u00f3w decyduj\u0105cych o ludzkim \u017cyciu i \u015bmierci. Z drugiej &#8211; wsp\u00f3\u0142czesne konflikty zbrojne ju\u017c teraz udowadniaj\u0105, \u017ce w ferworze walki koncepcja [&hellip;]<\/p>\n","protected":false},"author":373,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[597],"tags":[339,15,168,12,61,122,39],"class_list":["post-9243","post","type-post","status-publish","format-standard","hentry","category-agh-2025-26","tag-sztucznainteligencja","tag-ai","tag-automatyzacja","tag-etyka","tag-inwigilacja","tag-pojazdy-autonomiczne","tag-przetwarzanie-danych"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/9243","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/373"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=9243"}],"version-history":[{"count":26,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/9243\/revisions"}],"predecessor-version":[{"id":9293,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/9243\/revisions\/9293"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=9243"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=9243"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=9243"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}