{"id":1708,"date":"2022-06-02T11:55:51","date_gmt":"2022-06-02T11:55:51","guid":{"rendered":"http:\/\/architeles.pl\/ethics\/?p=1708"},"modified":"2022-06-02T11:55:51","modified_gmt":"2022-06-02T11:55:51","slug":"zaprogramowani-mordercy-roboty-i-systemy-autonomiczne-do-celow-bojowych","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2022\/06\/02\/zaprogramowani-mordercy-roboty-i-systemy-autonomiczne-do-celow-bojowych\/","title":{"rendered":"&#8222;Zaprogramowani mordercy&#8221; &#8211; roboty i systemy autonomiczne do cel\u00f3w bojowych"},"content":{"rendered":"<p><strong>Wojna. Ci\u0105g\u0142a walka, czyli straty, korzy\u015bci, emocje&#8230; Te wszystkie uczucia na co dzie\u0144 towarzysz\u0105 \u017co\u0142nierzowi na froncie. A co gdyby pozbawi\u0107 go tych wszystkich emocji? Da\u0107 mu zamiast tego metalowe, du\u017co bardziej wytrzyma\u0142e cia\u0142o, bro\u0144 i proste zestawy rozkaz\u00f3w. Brzmi surrealistycznie, ale jednak ju\u017c dzisiaj mo\u017cemy spotka\u0107 autonomiczne roboty zaprogramowane by zabija\u0107 wrog\u00f3w czy terroryst\u00f3w, czyli po prostu innych ludzi. Do kt\u00f3rego momentu b\u0119dzie to dobre a w kt\u00f3rym ju\u017c niekoniecznie? Kiedy ta utopijna wizja obr\u00f3ci si\u0119 przeciwko nam?<\/strong><\/p>\n<p><!--more--><\/p>\n<p><span style=\"font-weight: 400\">Post\u0119p technologiczny jest nieroz\u0142\u0105cznie zwi\u0105zany z konfliktami zbrojnymi. Dlatego te\u017c nie dziwi, \u017ce automatyzacja z wykorzystaniem sztucznej inteligencji nie mog\u0142a omin\u0105\u0107 sektora wojskowego. Zazwyczaj w przypadku inteligentnych broni na ko\u0144cu \u0142a\u0144cucha decyzyjnego znajduje si\u0119 cz\u0142owiek. Cz\u0142owiek, kt\u00f3ry ostatecznie os\u0105dza o odebraniu \u017cycia drugiej osobie. Co si\u0119 jednak dzieje gdy w tym procesie zabraknie czynnika ludzkiego? Co si\u0119 dzieje gdy to maszyna od pocz\u0105tku do ko\u0144ca decyduje o \u017cyciu i \u015bmierci? Wtedy mamy do czynienia z broniami w pe\u0142ni automatycznymi, okre\u015blanymi jako <em>\u201ckiller robots\u201d<\/em>.<\/span><\/p>\n<figure id=\"attachment_17703\" aria-describedby=\"caption-attachment-17703\" style=\"width: 1030px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"attachment-large wp-post-image wp-image-17703 size-large\" src=\"https:\/\/futureoflife.org\/wp-content\/uploads\/2018\/07\/lethal-autonomous-weapons-pledge-1030x483.jpg?x76795\" alt=\"\" width=\"1030\" height=\"483\" \/><figcaption id=\"caption-attachment-17703\" class=\"wp-caption-text\">Autonomous weapon, Future of Life Institute<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Wed\u0142ug Czerwonego Krzy\u017ca bro\u0144 mo\u017ce zosta\u0107 sklasyfikowana jako automatyczna, gdy w krytycznym procesie namierzania celu oraz u\u017cycia si\u0142y brakuje znacz\u0105cej kontroli cz\u0142owieka. Oznacza to, \u017ce maszyna sama interpretuje sytuacj\u0119 i bez \u017cadnej konsultacji z operatorem podejmuje dzia\u0142anie. Robi to na podstawie zaawansowanych algorytm\u00f3w sztucznej inteligencji, rozpoznawania obrazu do identyfikacji celu, a tak\u017ce ca\u0142ego zestawu czujnik\u00f3w, kt\u00f3re pomagaj\u0105 jej porusza\u0107 si\u0119 w niebezpiecznym terenie.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Z wykorzystaniem takiego typu broni wi\u0105\u017ce si\u0119 ogromne ryzyko, ale r\u00f3wnie\u017c pewne zalety, kt\u00f3re powoduj\u0105 ci\u0105g\u0142y rozw\u00f3j coraz to bardziej \u015bmierciono\u015bnej technologii.<\/span><\/p>\n<h2><strong>Czy ta zab\u00f3jcza gra jest warta \u015bwieczki<br \/>\n<\/strong><\/h2>\n<p><span style=\"font-weight: 400\">Wiele os\u00f3b podnosi, \u017ce wykorzystanie broni autonomicznych nie jest tylko dopuszczalne, ale wr\u0119cz konieczne. Powodem jest fakt, \u017ce cz\u0119sto spotykamy si\u0119 z sytuacjami gdy do tragedii przyczyniaj\u0105 si\u0119 ludzkie decyzje. Zm\u0119czeni ci\u0105g\u0142ymi walkami \u017co\u0142nierze mog\u0105 by\u0107 agresywni, przestraszeni albo nawet \u017c\u0105dni zemsty. W takim stanie psychicznym \u0142atwo o b\u0142\u0119dy i lekkomy\u015blne decyzje, kt\u00f3re mog\u0105 doprowadzi\u0107 do ofiar cywilnych lub eskalacji konfliktu. W przeciwie\u0144stwie do ludzi, roboty nie m\u0119cz\u0105 si\u0119, s\u0105 bardziej wydajne, a jedna inteligentna bro\u0144 mo\u017ce zast\u0105pi\u0107 nawet ca\u0142y oddzia\u0142. Nie ulegaj\u0105 emocjom i z surowym obiektywizmem mog\u0105 wymierzy\u0107 strza\u0142. Wojna nie odciska pi\u0119tna na ich psychice, nie musz\u0105 leczy\u0107 traum, zapomina\u0107 tragedii, kt\u00f3rych do\u015bwiadczyli, nie trac\u0105 przyjaci\u00f3\u0142, nie maj\u0105 nikogo bliskiego, kto op\u0142akiwa\u0142 by ich \u201c\u015bmier\u0107\u201d. Wizja wojen, w kt\u00f3rych \u201c\u017cycie\u201d trac\u0105 tylko maszyny wydaje si\u0119 by\u0107 argumentem za rozwojem tej technologii, jednak rzeczywisto\u015b\u0107 nie jest taka prosta.\u00a0<\/span><\/p>\n<h3>Chaos i maszyny<\/h3>\n<p><span style=\"font-weight: 400\">Dow\u00f3dcy, kt\u00f3rzy nie musz\u0105 przejmowa\u0107 si\u0119 utrat\u0105 ludzi, mog\u0105 ch\u0119tniej podejmowa\u0107 ryzyko i niepotrzebnie zaognia\u0107 konflikt. Faktem jest, \u017ce technologia nie jest nieomylna, Paul Scharre, by\u0142y urz\u0119dnik Pentagonu i\u00a0 \u017co\u0142nierz twierdzi, \u017ce <\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400\">\u201cjakkolwiek wyrafinowane by\u0142yby systemy autonomicznej broni, brakuje im ludzkiej elastyczno\u015bci i zrozumienia z\u0142o\u017cono\u015bci sytuacji.\u201d<\/span><\/i><\/p><\/blockquote>\n<p><span style=\"font-weight: 400\">Na froncie cz\u0119sto panuje chaos, priorytety si\u0119 zmieniaj\u0105 a wydarzenia potrafi\u0105 przybra\u0107 nieoczekiwany rozw\u00f3j. W takich warunkach, na jakie \u017cadna sztuczna inteligencja nie jest przygotowana, cz\u0142owiek wraz ze swoj\u0105 intuicj\u0105 i do\u015bwiadczeniem sprawdza si\u0119 du\u017co lepiej ni\u017c nie idealny algorytm. Argument\u00f3w przeciwko wykorzystywaniu i rozwijaniu \u201crobot\u00f3w zab\u00f3jc\u00f3w\u201d jest wiele, od dylemat\u00f3w moralnych po strach przed cyberatakami.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Jedn\u0105 z najwa\u017cniejszych obaw jest du\u017ce ryzyko skrzywdzenia niewinnych jednostek. Zgodnie z mi\u0119dzynarodowym prawem, dzia\u0142ania wojenne powinny by\u0107 proporcjonalne do zagro\u017cenia, a ataki na ludno\u015bci cywilnej s\u0105 w pewnym stopniu akceptowane tylko wtedy, gdy nie by\u0142y celowym zabiegiem. W przypadku wykorzystania sztucznej inteligencji rodzi si\u0119 pytanie &#8211; jak sklasyfikowa\u0107 dzia\u0142anie robota jako intencjonalne lub nieintencjonalne? Czy spowodowane by\u0142o b\u0142\u0119dem w algorytmie, z\u0142ymi odczytami z czujnik\u00f3w, a mo\u017ce zupe\u0142nie przemy\u015blanym i zamierzonym ruchem? Problem stanowi r\u00f3wnie\u017c przypisanie odpowiedzialno\u015bci za czyny konkretnej osobie. Gdy nikt nie ponosi winy i nie mo\u017ce zosta\u0107 skazany, pojawia si\u0119 ryzyko celowego agresywnego dzia\u0142ania, kt\u00f3re zostanie p\u00f3\u017aniej przedstawione jako \u201cwada systemu\u201d lub \u201cb\u0142\u0105d maszyny\u201d.\u00a0 Mo\u017ce to doprowadzi\u0107 do eskalacji konfliktu i sporych nadu\u017cy\u0107 ze strony rz\u0105dz\u0105cych.\u00a0<\/span><\/p>\n<h3>Nowy typ atak\u00f3w<\/h3>\n<p><span style=\"font-weight: 400\">Podobne ryzyko dotyczy potencjalnych atak\u00f3w hakerskich na \u015bmierciono\u015bne roboty. Czym bardziej zaawansowana bro\u0144, tym bardziej wyrafinowane sposoby na jej pokonanie. Sztuczna inteligencja jest podatna na oszustwa. Je\u015bli rozpracujemy algorytm i systemy ni\u0105 kieruj\u0105ce, \u0142atwo zmieni\u0107 spos\u00f3b w jaki robot postrzega rzeczywisto\u015b\u0107 i wp\u0142yn\u0105\u0107 na jego ocen\u0119 sytuacji. Co\u015b co dla cz\u0142owieka jest \u0142atwo rozr\u00f3\u017cnialne, dla maszyny mo\u017ce stanowi\u0107 problem. Ataki nie musz\u0105 polega\u0107 tylko na oszukiwaniu programu, ale te\u017c czujnik\u00f3w, dzi\u0119ki kt\u00f3rym robot rozpoznaje otaczaj\u0105cy go \u015bwiat, np. poprzez zag\u0142uszanie sygna\u0142\u00f3w GPS. Trudno sobie wyobrazi\u0107, co mo\u017ce si\u0119 sta\u0107 gdy tak niebezpieczna technologia wpadnie w niepowo\u0142ane r\u0119ce.\u00a0<\/span><\/p>\n<figure id=\"attachment_85791\" aria-describedby=\"caption-attachment-85791\" style=\"width: 750px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-85791 size-full\" src=\"https:\/\/www.aviationtoday.com\/wp-content\/uploads\/2019\/12\/kargu.jpg\" alt=\"\" width=\"750\" height=\"370\" aria-describedby=\"caption-attachment-85791\" \/><figcaption id=\"caption-attachment-85791\" class=\"wp-caption-text\">Turkish KARGU drone (STM Photo)<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Nieprzewidywalno\u015b\u0107 sztucznej inteligencji w sytuacjach bojowych jest \u015bci\u015ble zwi\u0105zana z faktem, \u017ce bardzo trudno testowa\u0107 takie rozwi\u0105zania w sytuacjach zbli\u017conych do prawdziwego konfliktu zbrojnego. Misje odbywaj\u0105 si\u0119 na ogromnym obszarze, ze zmienn\u0105 pogod\u0105, zagro\u017ceniem ze strony wrogich \u017co\u0142nierzy i innych maszyn. Nie jeste\u015bmy w stanie przystosowa\u0107 robota do ka\u017cdej mo\u017cliwej sytuacji, szczeg\u00f3lnie gdy mia\u0142by on wsp\u00f3\u0142pracowa\u0107 z innymi, podobnymi sobie maszynami. W innych dziedzinach, w kt\u00f3rych wykorzystujemy sztuczn\u0105 inteligencj\u0119 nie jest to a\u017c takim problemem, jak na polu bitwy, gdzie ryzykujemy ludzkie \u017cycia.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Emocje nie zawsze musz\u0105 by\u0107 \u017ar\u00f3d\u0142em b\u0142\u0119dnych decyzji. Czasami wyj\u0105tkowo wa\u017cna jest umiej\u0119tno\u015b\u0107 okazania wsp\u00f3\u0142czucia i lito\u015bci, do kt\u00f3rych niezdolne s\u0105 nawet bardzo zaawansowane algorytmy. Ludzka moralno\u015b\u0107 jest trudna do zaprogramowania i zasymulowania. Jednak mo\u017cna si\u0119 k\u0142\u00f3ci\u0107 czy b\u0119d\u0105c \u017co\u0142nierzem nie lepiej wyzby\u0107 si\u0119 swojego sumienia na rzecz rozkaz\u00f3w.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ka\u017cda kontrowersyjna opinia znajdzie swoich zagorza\u0142ych zwolennik\u00f3w i przeciwnik\u00f3w. Temat \u201crobot\u00f3w zab\u00f3jc\u00f3w\u201d porusza wielu specjalist\u00f3w, kt\u00f3rzy spieraj\u0105 si\u0119 mi\u0119dzy sob\u0105 czy plusy wykorzystania takiej technologii przewy\u017cszaj\u0105 liczb\u0119 minus\u00f3w.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ciekaw\u0105 opini\u0119 na ten temat ma Neil deGrasse Tyson:<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Neil deGrasse Tyson on AI killer robots\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/RNUzWm1O8KM?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h2><strong>Przysz\u0142o\u015bc jest ju\u017c dzi\u015b<\/strong><\/h2>\n<p><span style=\"font-weight: 400\">Od paru lat wojsko u\u017cywa autonomicznych robot\u00f3w do realizacji bojowych zada\u0144 jak nadz\u00f3r, wsparcie logistyczne czy rozbrajanie \u0142adunk\u00f3w wybuchowych. Aktualnie postrzegane s\u0105 one r\u00f3wnie\u017c jako alternatywa dla \u017cywych \u017co\u0142nierzy.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Jednym z ciekawych, aktualnie u\u017cywanych rozwi\u0105za\u0144 s\u0105 drony maj\u0105ce za zadanie zrobienie sporego ruchu na radarach wroga w celach kontrwywiadowczych. Drony te s\u0105 w pe\u0142ni sterowane przez sztuczn\u0105 inteligencj\u0119, co mo\u017cemy zobaczy\u0107 na filmie poni\u017cej.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Perdix Drone Swarm \u2013 Fighters Release Hive-mind-controlled Weapon UAVs in Air\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/ndFKUKHfuM0?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400\">Zast\u0105pienie ludzi na polu bitwy ma jednak swoich zwolennik\u00f3w jak i przeciwnik\u00f3w. G\u0142\u00f3wnym aspektem za i przeciw jest brak emocji &#8211; post\u0119powanie wed\u0142ug zaprogramowanego protoko\u0142u. Chocia\u017c granica mo\u017ce zosta\u0107 postawiona jasno, tak taki dron i tak wykonuje polecenia, kt\u00f3re dla zwyk\u0142ych cywyli pozostan\u0105 tajemnica. Wiele si\u0119 m\u00f3wi o \u201cstratach ubocznych\u201d, kiedy sztuczna inteligencja pope\u0142nia b\u0142\u0105d lub nie mia\u0142a wystarczaj\u0105cych danych wywiadowczych. Cz\u0142owiek zastanowi\u0142by si\u0119 za poci\u0105gni\u0119ciem spustu. A sztuczna inteligencja takiego robota? Przecie\u017c post\u0119puje tylko wedle zaprogramowanego wcze\u015bniej protoko\u0142u\u2026<\/span><\/p>\n<h2><strong>&#8222;Typowe scenariusze&#8221; do zabijania<\/strong><\/h2>\n<p><span style=\"font-weight: 400\">W maju 2021 roku Izraelska armia zaprezentowa\u0142a autonomicznego robota Jaguar. Jego wyr\u00f3\u017cniaj\u0105c\u0105 cech\u0105 jest tryb autonomiczny, gdzie decyzj\u0119 o otwarciu ognia podejmuje sztuczna inteligencja. Oficjalnie, w codziennym trybie pracy, oprogramowanie pozwala operatorowi robota na bardziej precyzyjne wycelowanie w wybrany cel. W zwi\u0105zku z tym to \u017co\u0142nierz znajduj\u0105cy si\u0119 w oddalonej najcz\u0119\u015bciej o par\u0119set kilometr\u00f3w bazie, wydaje polecenie do strza\u0142u. Jednak w tzw. \u201cniekt\u00f3rych scenariuszach\u201d, robot mo\u017ce automatycznie zacz\u0105\u0107 strzela\u0107 w momencie, w kt\u00f3rym kto\u015b odda\u0142 do niego strza\u0142 jako pierwszy. R\u00f3wnie\u017c w przypadku bycia przechwyconym przez wroga, mo\u017ce aktywowa\u0107 protok\u00f3\u0142 autodestrukcji, w kt\u00f3rym zdetonuje zawarte w sobie \u0142adunki wybuchowe. Przy takim obrocie spraw mog\u0105 ucierpie\u0107 postronni cywile. Nie mamy jednak informacji czy w takim wypadku jakkolwiek otoczenie sprawdzane jest pod k\u0105tem os\u00f3b w zasi\u0119gu ra\u017cenia wybuchu.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Od 2014 roku co roku w Genewie poruszany jest temat globalnego zakazu wykorzystania autonomicznych robot\u00f3w do cel\u00f3w militarnych. Jednak przeciwko s\u0105 Australia, Rosja, Stany Zjednoczone, Wielka Brytania oraz Izrael. W zwi\u0105zku z opozycj\u0105 takich mocnych graczy na scenie militarnej, jeszcze d\u0142ugo nie b\u0119dzie mo\u017cna m\u00f3wi\u0107 o takim zakazie.<\/span><\/p>\n<h2><strong>Czeka nas bunt maszyn?<\/strong><\/h2>\n<p><span style=\"font-weight: 400\">W popkulturze temat autonomicznych robot\u00f3w zdolnych do zabijania jest z nami od praktycznie pocz\u0105tku gatunku science-fiction. Najbardziej znanymi filmami z motywem autonomicznych droid\u00f3w jest zacz\u0119ta w 1977 seria Star Wars, w kt\u00f3rej przeplatany jest motyw autonomicznych droid\u00f3w sterowanych przez sztuczn\u0105 inteligencj\u0119 (najcz\u0119\u015bciej nie znajduj\u0105c\u0105 si\u0119 bezpo\u015brednio na polu walki).<\/span><\/p>\n<figure style=\"width: 768px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/2.bp.blogspot.com\/-j9xTGO8Pdq0\/WM5TajBFELI\/AAAAAAAABqc\/TXgqpdrXqnA1FZtp_jG6rDwF6NKcid3NACEw\/s1600\/Droids_01.jpg\" alt=\"\u015awiat Star Wars: 8 ciekawych cytat\u00f3w droid\u00f3w\" width=\"768\" height=\"432\" \/><figcaption class=\"wp-caption-text\">Zautomatyzowane droidy sterowane przez sztuczn\u0105 inteligencj\u0119 &#8211; \u0179r\u00f3d\u0142o: StarWars re\u017c. George Lucas.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Jednym z cz\u0119sto pojawiaj\u0105cych si\u0119 motyw\u00f3w w filmach jest bunt maszyn. W momencie w kt\u00f3rym sztuczna inteligencja stwierdza, \u017ce najwi\u0119kszym zagro\u017ceniem dla cz\u0142owieka jest on sam, stara si\u0119 go obroni\u0107 przed\u2026 samym sob\u0105 staj\u0105c si\u0119 z perpsektywy ludzi jej wrogiem (chocia\u017c sztuczna inteligencja tego tak nie postrzega). Jednym z kultowych takich flm\u00f3w jest Terminator. Wszystkie wydarzenia w filmie zapocz\u0105tkowane s\u0105 przez stworzenie rewolucyjnego systemu sztucznej inteligencji zwanego Skynet. Zosta\u0142 on stworzony jako \u201cKomputerowa sie\u0107 obrony. Nowa&#8230; pot\u0119\u017cna&#8230; pod\u0142\u0105czona do wszystkiego, godna zaufania.\u201d. Jednak w ci\u0105gu chwili, jako podstawowy cel uratowania ludzko\u015bci wybra\u0142 jej eksterminacj\u0119. Pocz\u0105tkowo my\u015blano, \u017ce jest to wirus, jednak okaza\u0142o si\u0119, \u017ce taka kolej rzeczy zosta\u0142a wybrana przez zaimplementowane algorytmy. Bohaterowie serii musz\u0105 walczy\u0107 z ze sztuczn\u0105 inteligencj\u0105, kt\u00f3ra w podstawowych za\u0142o\u017ceniach, mia\u0142a by\u0107 dla nich ochron\u0105 i s\u0142u\u017cy\u0107 wszech og\u00f3lnemu dobru.<\/span><\/p>\n<h2><strong>Gdzie le\u017cy granica mi\u0119dzy ludzk\u0105 a sztuczn\u0105 inteligencj\u0105?<\/strong><\/h2>\n<p><span style=\"font-weight: 400\">Temat sztucznej inteligencji, kt\u00f3ra wymyka si\u0119 spod planowanej wcze\u015bniej kontroli, przejawia si\u0119 r\u00f3wnie\u017c w grach komputerowych. Jednym z takich tytu\u0142\u00f3w jest Detroit: Become to human studia Sony Interactive Entertainment. Ca\u0142a fabu\u0142a rozgrywa si\u0119 w mie\u015bcie Detroid w 2038 roku. Ludzie wraz ze wzrostem zapotrzebowania na proste prace fizyczne i us\u0142ugi stworzyli androidy, kt\u00f3re za zadanie mia\u0142y s\u0142u\u017cy\u0107 innym. By\u0142y swego rodzaju cyfrowymi niewolnikami. Bior\u0105c jednak pod uwag\u0119 bardzo zaawansowan\u0105 sztuczn\u0105 inteligencj\u0119, mo\u017cna m\u00f3wi\u0107 o rozwijaj\u0105cej si\u0119 samo\u015bwiadomo\u015bci tych android\u00f3w, kt\u00f3re z wygl\u0105du i zachowania przypomina\u0142 ludzi. Niekt\u00f3re by\u0142y nawet zdolne do odczuwania emocji, z tego r\u00f3wnie\u017c powodu zacz\u0119\u0142y si\u0119 buntowa\u0107 i \u017c\u0105da\u0107 r\u00f3wnouprawnienia. W trakcie gry wcielamy si\u0119 w trzy takie androidy, kt\u00f3re w trakcie rozwijania fabu\u0142y podejmuj\u0105 wiele r\u00f3\u017cnych, a zarazem ludzkich decyzji. Czy mamy sk\u0142ama\u0107, czy powiedzie\u0107 prawd\u0119? Czy mamy si\u0119 broni\u0107, czy ucieka\u0107? Jako androidy stawiani r\u00f3wnie\u017c jeste\u015bmy w decyzji czy poci\u0105gn\u0105\u0107 za spust czy nie. Takie futurystyczne podej\u015bcie do sztucznej inteligencji k\u0142\u00f3ci si\u0119 z pierwszym prawem Asimova, jednak tw\u00f3rcy rozwa\u017caj\u0105 i taki rozw\u00f3j wydarze\u0144 w przypadku samo\u015bwiadomej sztucznej inteligencji.<\/span><\/p>\n<figure style=\"width: 2060px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.slantmagazine.com\/wp-content\/uploads\/2018\/05\/detroitbecomehuman.jpg\" alt=\"Review: Detroit: Become Human - Slant Magazine\" width=\"2060\" height=\"1159\" \/><figcaption class=\"wp-caption-text\">Android wzi\u0105\u0142 za zak\u0142adnika cz\u0142owieka w obawie o swoje \u017cycie. Kadr z gry Detroit: become to human studia Sony Interactive Entertainment.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Bibliografia:<\/span><\/p>\n<ol>\n<li><span style=\"font-weight: 400\">Lethal Autonomous Weapons. (2021, November 30) https:\/\/autonomousweapons.org\/<\/span><\/li>\n<li><span style=\"font-weight: 400\">Dawes, J. (2021, December 20). <\/span><i><span style=\"font-weight: 400\">UN fails to agree on \u2018killer robot\u2019 ban as nations pour billions into autonomous weapons research<\/span><\/i><span style=\"font-weight: 400\">. The Conversation. https:\/\/theconversation.com\/un-fails-to-agree-on-killer-robot-ban-as-nations-pour-billions-into-autonomous-weapons-research-173616<\/span><\/li>\n<li><span style=\"font-weight: 400\">Jones, T. (2021, December 8). <\/span><i><span style=\"font-weight: 400\">Real-Life Technologies that Prove Autonomous Weapons are Already Here<\/span><\/i><span style=\"font-weight: 400\">. Future of Life Institute. https:\/\/futureoflife.org\/2021\/11\/22\/real-life-technologies-that-prove-autonomous-weapons-are-already-here\/<\/span><\/li>\n<li><span style=\"font-weight: 400\">Michalik, \u0141. (2021, June 30). <\/span><i><span style=\"font-weight: 400\">Izraelski robot bojowy Jaguar. Autonomiczne maszyny b\u0119d\u0105 strzela\u0107 do ludzi<\/span><\/i><span style=\"font-weight: 400\">. WP Tech. https:\/\/tech.wp.pl\/izraelski-robot-bojowy-jaguar-autonomiczne-maszyny-beda-strzelac-do-ludzi,6656024643353152a<\/span><\/li>\n<li><span style=\"font-weight: 400\">Rolecki, M. (2021, November 22). <\/span><i><span style=\"font-weight: 400\">Roboty-zab\u00f3jcy na polu walki. Izrael u\u017cywa autonomicznych maszyn do walki z Palesty\u0144czykami<\/span><\/i><span style=\"font-weight: 400\">. Focus.pl. https:\/\/www.focus.pl\/artykul\/roboty-zabojcy-na-polu-walki-izrael-uzywa-autonomicznych-maszyn-do-walki-z-palestynczykami<\/span><\/li>\n<li><span style=\"font-weight: 400\">Prof. Peter Asaro, \u201cAutonomous Weapons and the Ethics of Artificial Intelligence\u201d, The New School <\/span><span style=\"font-weight: 400\">Ethics of Artificial Intelligence, Oxford Press.<\/span><\/li>\n<\/ol>\n","protected":false},"excerpt":{"rendered":"<p>Wojna. Ci\u0105g\u0142a walka, czyli straty, korzy\u015bci, emocje&#8230; Te wszystkie uczucia na co dzie\u0144 towarzysz\u0105 \u017co\u0142nierzowi na froncie. A co gdyby pozbawi\u0107 go tych wszystkich emocji? Da\u0107 mu zamiast tego metalowe, du\u017co bardziej wytrzyma\u0142e cia\u0142o, bro\u0144 i proste zestawy rozkaz\u00f3w. Brzmi surrealistycznie, ale jednak ju\u017c dzisiaj mo\u017cemy spotka\u0107 autonomiczne roboty zaprogramowane by zabija\u0107 wrog\u00f3w czy terroryst\u00f3w, [&hellip;]<\/p>\n","protected":false},"author":14,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[3],"tags":[15,168,170,12,169,110,20,109],"class_list":["post-1708","post","type-post","status-publish","format-standard","hentry","category-3","tag-ai","tag-automatyzacja","tag-drony","tag-etyka","tag-militaria","tag-roboty","tag-sztuczna-inteligencja","tag-zaufanie"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/1708","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/14"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=1708"}],"version-history":[{"count":5,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/1708\/revisions"}],"predecessor-version":[{"id":1725,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/1708\/revisions\/1725"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=1708"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=1708"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=1708"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}