{"id":1902,"date":"2022-06-09T13:19:24","date_gmt":"2022-06-09T13:19:24","guid":{"rendered":"http:\/\/architeles.pl\/ethics\/?p=1902"},"modified":"2023-03-01T14:35:08","modified_gmt":"2023-03-01T14:35:08","slug":"sztuczna-inteligencja-i-ryzyko-egzystencjalne","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2022\/06\/09\/sztuczna-inteligencja-i-ryzyko-egzystencjalne\/","title":{"rendered":"Sztuczna inteligencja i ryzyko egzystencjalne"},"content":{"rendered":"<p style=\"text-align: justify;\">Sztuczna inteligencja jest stosunkowo nowym wynalazkiem, od niedawna zyskuj\u0119 du\u017c\u0105 popularno\u015b\u0107, nie tylko w\u015br\u00f3d os\u00f3b technicznych. I jak ka\u017cda z\u0142o\u017cona i nie\u0142atwa do zrozumienia przez ka\u017cdego kwestia, mo\u017ce rodzi\u0107 wiele obaw wobec niej samej jak i cel\u00f3w do kt\u00f3rych b\u0119dzie wykorzystywana.Od samego pocz\u0105tku istnienia maszyn, ludzie zastanawiali si\u0119 czy b\u0119d\u0105 one zawsze tylko narz\u0119dziami w naszych r\u0119kach, czy mo\u017ce stan\u0105 si\u0119 r\u00f3wnymi nam istotami, b\u0105d\u017a co gorsza &#8211; przewy\u017csz\u0105 nas jako forma istnienia i np. zniszcz\u0105 b\u0105d\u017a zdominuj\u0105. Ju\u017c w 1863 r. w artykule pt. <em>Darwin w\u015br\u00f3d maszyn<\/em> opublikowanym w <em>The Press\u00a0<\/em>autor zak\u0142ada, \u017ce maszyny to inny rodzaj \u017cycia, kt\u00f3ry podlega prawom ewolucji, co mo\u017ce doprowadzi\u0107 do wyparcia przez nich ludzi. Do pewnego czasu takie rozwa\u017cania pozostawa\u0142y w domenie literatury, g\u0142\u00f3wnie science fiction, jak np.\u00a0<em>Odyseja Kosmiczna<\/em>, b\u0105d\u017a filmach, np.\u00a0<em>Matrix. <\/em>Z regu\u0142y s\u0105 to obrazy pesymistyczne czy wr\u0119cz dystopijne, lecz zdarzaj\u0105 si\u0119 wyj\u0105tki &#8211; jak np. postaci robot\u00f3w obdarzonych sztuczn\u0105 inteligencj\u0105, np. w serii <em>Star Trek<\/em>. Dopiero od niedawna, wraz z rozwojem nauki i technologii w polu sztucznej inteligencji, pojawiaj\u0105 si\u0119 g\u0142osy ludzi powi\u0105zanych z nauk\u0105, podejmuj\u0105cych te tematy i rozwa\u017caj\u0105cych na tematy potencjalnych skutk\u00f3w rozwoju AI, b\u0105d\u017a regulacji jakie nale\u017cy zacz\u0105\u0107 stosowa\u0107.<\/p>\n<p style=\"text-align: justify;\"><!--more--><\/p>\n<h2 style=\"text-align: justify;\">Potencjalny scenariusz &#8211; technologiczna osobliwo\u015b\u0107<\/h2>\n<p style=\"text-align: justify;\">Jedn\u0105 z pierwszych os\u00f3b kt\u00f3re u\u017cy\u0142a okre\u015blenia osobliwo\u015bci w kontek\u015bcie maszyn by\u0142 John von Neumann. Poj\u0119cie to oznacza osi\u0105gni\u0119cie takiego tempa rozwoju sztucznej inteligencji, kt\u00f3re b\u0119dzie si\u0119 nasila\u0107 coraz bardziej i ostatecznie doprowadzi do opracowania sztucznej inteligencji przerastaj\u0105cej cz\u0142owieka. Jednym z zak\u0142adanych scenariuszy jest np. wybuch inteligencji &#8211; w tym scenariuszu pewna ju\u017c istniej\u0105ca sztuczna inteligencja osi\u0105ga taki stopie\u0144 kompetencji w np. wytwarzaniu oprogramowania i sprz\u0119tu, \u017ce jest w stanie wytworzy\u0107 inteligentniejsz\u0105 wersj\u0119 samej siebie, kt\u00f3ra to stworzy jeszcze inteligentniejsz\u0105 wersj\u0119 i w taki spos\u00f3b dojdzie do lawinowo przyspieszaj\u0105cego wytworzenia si\u0119 coraz to pot\u0119\u017cniejszej inteligencji, kt\u00f3ra ostatecznie przero\u015bnie znacznie t\u0119 ludzk\u0105. Rozwa\u017cane jest nawet to, \u017ce owa inteligencja przero\u015bnie r\u00f3wnie\u017c cz\u0142owieka w kwestii umiej\u0119tno\u015bci poznawczych, co jeszcze bardziej pozwoli jej zrozumie\u0107 np. prawa fizyki, kt\u00f3rych znajomo\u015b\u0107 mo\u017ce przyspieszy\u0107 owy rozw\u00f3j jeszcze bardziej. Wyst\u0105pienie tego zjawiska cz\u0119sto jest argumentowane istnieniem prawa Moore\u2019a, kt\u00f3re okre\u015bla\u0142o \u017ce liczba tranzystor\u00f3w w uk\u0142adach scalonym ro\u015bnie wyk\u0142adniczo. Sceptyk\u00f3w takiego scenariusza nie brakuje &#8211; argumentuj\u0105 oni np. tym \u017ce, maszyny mog\u0105 zdoby\u0107 inteligencj\u0119 w rozpoznawaniu pewnych wzorc\u00f3w, obliczeniach ale zawsze b\u0119dzie im brakowa\u0107 inteligencji np. kreatywnej czy moralnej co b\u0119dzie znacznie ogranicza\u0107 mo\u017cliwo\u015b\u0107 takiego gwa\u0142townego rozwoju. Dodatkow\u0105 argumentacj\u0105 jest to, \u017ce jak w przypadku prawa Moore\u2019a, rozw\u00f3j z\u0142o\u017cono\u015bci maszyn b\u0119dzie mia\u0142 swoj\u0105 granic\u0105, spowodowan\u0105 przez prawa fizyki.<\/p>\n<h2 style=\"text-align: justify;\">Spory o rozw\u00f3j sztucznej inteligencji<\/h2>\n<p style=\"text-align: justify;\">Oczywi\u015bcie pesymi\u015bci widz\u0105 wy\u017cej opisany scenariusz jako co\u015b z\u0142ego &#8211; sztuczna inteligencja, kt\u00f3ra przero\u015bnie ludzk\u0105, wg nich b\u0119dzie, albo wrogo nastawiona ludzko\u015bci i np. pozb\u0119dzie si\u0119 jej jako potencjalnego wroga, b\u0105d\u017a b\u0119dzie traktowa\u0107 nas jak ni\u017csze formy \u017cycia, tak jak my traktujemy zwierz\u0119ta, przez co okres panowania ludzi na Ziemi si\u0119 sko\u0144czy. Optymi\u015bci widz\u0105 tutaj inn\u0105 drog\u0119 i traktuj\u0105 taki scenariusz jako kolejny etap rozwoju technologicznego, kt\u00f3ry dzi\u0119ki wyk\u0142adniczym tempie, m\u00f3g\u0142by w kr\u00f3tkim czasie doprowadzi\u0107 do np. opracowania lek\u00f3w, wydajnych i ekologicznych technologii wytwarzania energii. W debacie publicznej r\u00f3wnie\u017c us\u0142yszymy 2 strony konfliktu. Co ciekawe obie strony oskar\u017caj\u0105 t\u0119 drug\u0105, o to \u017ce pope\u0142niaj\u0105 zasadniczy b\u0142\u0105d w snuciu swych teorii &#8211; mianowicie dokonuj\u0105 antropomorfizacji maszyn. Ludzie, kt\u00f3rzy zak\u0142adaj\u0105 \u017ce sztuczna inteligencja zdominuje ludzi i ew. pozb\u0119dzie si\u0119 ich, oskar\u017ca drug\u0105 stron\u0119, \u017ce uwa\u017caj\u0105, i\u017c maszyny w trakcie swojego rozwoju przejm\u0105 od ludzi takie cechy jak moralno\u015b\u0107, czy wsp\u00f3\u0142czucie, dzi\u0119ki kt\u00f3rym maszyny b\u0119d\u0119 mia\u0142y zawsze na uwadze dobro ludzko\u015bci &#8211; czyli de facto b\u0119d\u0105 spe\u0142nia\u0142y 1. prawo Asimova. Natomiast optymi\u015bci oskar\u017caj\u0105 drug\u0105 stron\u0119 debaty o to, \u017ce zak\u0142adaj\u0105 i\u017c sztuczna inteligencja wytworzy swego rodzaju ambicje, kt\u00f3re to np. mog\u0105 spowodowa\u0107 pr\u00f3buj\u0119 przej\u0119cia kontroli nad \u015bwiatem, b\u0105d\u017a b\u0119d\u0105 \u017c\u0105dne w\u0142adzy. Istniej\u0105 r\u00f3wnie\u017c sceptycy, kt\u00f3rzy twierdz\u0105 \u017ce do przebudzenia si\u0119 \u015bwiadomo\u015bci sztucznej inteligencji nie dojdzie, i \u017ce wszelkie maszyny, oprogramowanie i algorytmy na zawsze pozostan\u0105 tylko narz\u0119dziami, a to do czego b\u0119d\u0105 u\u017cywane zale\u017ce\u0107 b\u0119dzie tylko i wy\u0142\u0105cznie od ich tw\u00f3rc\u00f3w, czyli nas &#8211; ludzi.<\/p>\n<h2 style=\"text-align: justify;\">AI jako narz\u0119dzie zag\u0142ady<\/h2>\n<p style=\"text-align: justify;\">Od oko\u0142o 2015r. mo\u017cna zauwa\u017cy\u0107 rosn\u0105ce zainteresowanie sztuczn\u0105 inteligencj\u0105 w kwestiach militarnych. Oczywistym jest wy\u015bcig zbroje\u0144 najwi\u0119kszych pa\u0144stw. Niekt\u00f3rzy por\u00f3wnuj\u0105 ten wy\u015bcig z zimn\u0105 wojn\u0105, w kt\u00f3rej atom zosta\u0142 zast\u0105piony przez sztuczn\u0105 inteligencj\u0119. W USA z roku na rok, rz\u0105d inwestuje coraz wi\u0119cej pieni\u0119dzy w rozw\u00f3j sztucznej inteligencji i big data. Istniej\u0105 ju\u017c pewne militarne zastosowania, np. okr\u0119t wojenny <em>Sea Hunter<\/em>, kt\u00f3ry potrafi operowa\u0107 bez za\u0142ogi, czy drony kt\u00f3re potrafi\u0105 odnale\u017a\u0107 i wyeliminowa\u0107 konkretny cel. Poza Stanami Zjednoczonymi, najwi\u0119kszym graczem s\u0105 Chiny, w mniejszym stopniu inne kraje takie jak Rosja. W ka\u017cdym z tych kraj\u00f3w, wysoko postawieni genera\u0142owie wypowiadaj\u0105 si\u0119, \u017ce sztuczna inteligencja jest kolejnym etapem w rozwoju militari.<\/p>\n<h2 style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Jak bardzo powinni\u015bmy si\u0119 martwi\u0107?<\/span><\/h2>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Nick Bostrom jest profesorem na Uniwersytecie Oksfordzkim, dyrektorem Instytutu Przysz\u0142o\u015bci Ludzko\u015bci i dyrektorem Programu Zarz\u0105dzania Sztuczn\u0105 Inteligencj\u0105. Bada zagro\u017cenia dla ludzko\u015bci, zar\u00f3wno w spos\u00f3b abstrakcyjny \u2013 zadaj\u0105c pytania, jak to, dlaczego wydaje si\u0119, \u017ce jeste\u015bmy sami we wszech\u015bwiecie \u2013 i konkretnie, analizuj\u0105c post\u0119p technologiczny i czy nam zagra\u017ca. Doszed\u0142 do wniosku, \u017ce sztuczna inteligencja jest zagro\u017ceniem. W 2014 roku napisa\u0142 ksi\u0105\u017ck\u0119 opisuj\u0105c\u0105 zagro\u017cenia, jakie stwarza sztuczna inteligencja konkluduj\u0105c: \u201egdy ju\u017c istnieje nieprzyjazna superinteligencja, uniemo\u017cliwi\u0142oby nam to zast\u0105pienie jej lub zmian\u0119 jej preferencji. Nasz los by\u0142by przypiecz\u0119towany\u201d.<\/span><\/p>\n<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/miro.medium.com\/max\/1000\/1*J7RCe00k3arIaZXaNaYuwg.jpeg\" alt=\"Dangers and Challenges of Artificial Intelligence | by Murat Durmus (CEO @AISOMA_AG) | Medium\" width=\"553\" height=\"312\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Szef zespo\u0142u naukowc\u00f3w Facebooka, zajmuj\u0105cych si\u0119 sztuczn\u0105 inteligencj\u0105, Yann LeCun, chocia\u017c twierdzi, \u017ce nie powinni\u015bmy ba\u0107 si\u0119 AI, nadal uwa\u017ca, \u017ce powinni\u015bmy zatrudnia\u0107 ludzi pracuj\u0105cych nad i my\u015bl\u0105cych o bezpiecze\u0144stwie w kwestii AI. \u201eNawet je\u015bli ryzyko dotycz\u0105ce sztucznej inteligencji powstanie jest bardzo ma\u0142o prawdopodobne i bardzo odleg\u0142e, nadal musimy o tym pomy\u015ble\u0107, zaprojektowa\u0107 \u015brodki ostro\u017cno\u015bci i ustali\u0107 wytyczne\u201d \u2013 pisze..<\/span><\/p>\n<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/d3eeke16mv0lt7.cloudfront.net\/sites\/default\/files\/styles\/article_hero_image\/public\/Does-Facebook-M-prove-humans-are-the-missing-link-in-AI.jpg?itok=GF9InHpU\" alt=\"Does Facebook M prove humans are the missing link in AI?\" width=\"621\" height=\"266\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Nie oznacza to, \u017ce istnieje konsensus ekspert\u00f3w \u2013 daleko od tego. Istnieje powa\u017cna r\u00f3\u017cnica zda\u0144 na temat tego, kt\u00f3re podej\u015bcia wydaj\u0105 si\u0119 najprawdopodobniej doprowadzi\u0107 nas do sztucznej inteligencji i jak szybko musimy si\u0119 tym martwi\u0107. Ale ten sp\u00f3r nie powinien przes\u0142ania\u0107 mo\u017cliwo\u015bci, o kt\u00f3rych warto pomy\u015ble\u0107, zainwestowa\u0107 i zbada\u0107, wi\u0119c b\u0119dziemy mieli wskaz\u00f3wki, gdy nadejdzie moment, w kt\u00f3rym s\u0105 potrzebne.<\/span><\/p>\n<h2 style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Pogl\u0105dy na zakazy i regulacje<\/span><\/h2>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Istnieje prawie powszechna zgoda, \u017ce pr\u00f3by zakazania bada\u0144 nad sztuczn\u0105 inteligencj\u0105 by\u0142yby nierozs\u0105dne i prawdopodobnie daremne. Sceptycy twierdz\u0105, \u017ce regulacja AI by\u0142aby ca\u0142kowicie bezwarto\u015bciowa, poniewa\u017c nie stwarza ona aktualnie ryzyka dla ludzko\u015bci. Prawie wszyscy uczeni, kt\u00f3rzy wierz\u0105, \u017ce istnieje ryzyko egzystencjalne, zgadzaj\u0105 si\u0119 ze sceptykami, \u017ce zakaz prowadzenia bada\u0144 by\u0142by nierozs\u0105dny, poniewa\u017c badania mog\u0142yby zosta\u0107 przeniesione do kraj\u00f3w o lu\u017aniejszych przepisach lub prowadzone potajemnie.<\/span><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Elon Musk wezwa\u0142 do pewnego rodzaju regulacji rozwoju sztucznej inteligencji ju\u017c w 2017 roku. Wed\u0142ug NPR, dyrektor generalny Tesli \u201ewyra\u017anie nie jest zachwycony\u201d, \u017ce opowiada si\u0119 za kontrol\u0105 rz\u0105dow\u0105, kt\u00f3ra mog\u0142aby wp\u0142yn\u0105\u0107 na jego w\u0142asn\u0105 bran\u017c\u0119, ale uwa\u017ca, \u017ce ryzyko zwi\u0105zane z ca\u0142kowitym brakiem nadzoru jest zbyt wysokie. Odpowiadaj\u0105c zar\u00f3wno Muskowi, jak i na propozycje prawodawc\u00f3w Unii Europejskiej z lutego 2017 r., aby uregulowa\u0107 sztuczn\u0105 inteligencj\u0119 i robotyk\u0119, dyrektor generalny Intela Brian Krzanich przekonuje, \u017ce sztuczna inteligencja jest w powijakach i jest za wcze\u015bnie, by regulowa\u0107 t\u0119 technologi\u0119.<\/span><\/p>\n<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/i.ytimg.com\/vi\/zpWYQ1YtgnI\/maxresdefault.jpg\" alt=\"Will Smith hosts Meme Review w\/ Elon Musk [MEME REVIEW] \ud83d\udc4f \ud83d\udc4f#50 - YouTube\" width=\"596\" height=\"332\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Na regulacj\u0119 sztucznej inteligencji prawdopodobnie wp\u0142yn\u0119\u0142aby regulacja uzbrojonej lub zmilitaryzowanej sztucznej inteligencji, tj. wy\u015bcigu zbroje\u0144 sztucznej inteligencji, kt\u00f3rego regulacja jest pojawiaj\u0105c\u0105 si\u0119 kwesti\u0105. Regulacja bada\u0144 nad sztuczn\u0105 inteligencj\u0105 koncentruje si\u0119 na roli rad kontrolnych i zach\u0119caniu do bada\u0144 nad bezpieczn\u0105 sztuczn\u0105 inteligencj\u0105 oraz mo\u017cliwo\u015bciami zr\u00f3\u017cnicowanego post\u0119pu technologicznego (nadawanie priorytetu strategiom ograniczania ryzyka nad strategiami podejmowania ryzyka w rozwoju AI)<\/span><\/p>\n<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/dronewars.net\/wp-content\/uploads\/2021\/10\/Military-AI.png\" alt=\"Military applications at centre of Britain's plans to be AI superpower \u2013 Drone Wars UK\" width=\"610\" height=\"342\" \/><\/p>\n<h2 style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Dlaczego nie mogli\u015bmy po prostu wy\u0142\u0105czy\u0107 komputera, je\u015bli sta\u0142 si\u0119 zbyt pot\u0119\u017cny?<\/span><\/h2>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Sztuczna inteligencja mog\u0142aby przewidzie\u0107 to, \u017ce ludzie pr\u00f3buj\u0105 j\u0105 wy\u0142\u0105czy\u0107. Dlatego stara\u0142aby si\u0119 nie denerwowa\u0107 nas, poniewa\u017c nie pomog\u0142oby jej to osi\u0105gn\u0105\u0107 swoich cel\u00f3w. Je\u015bli zostanie zapytana, jakie s\u0105 jej intencje lub nad czym pracuje, spr\u00f3buje oceni\u0107, kt\u00f3re odpowiedzi s\u0105 najmniej prawdopodobne, aby j\u0105 wy\u0142\u0105czy\u0107, i nimi odpowie. Dodatkowo mog\u0142aby udawa\u0107, \u017ce jest g\u0142upsza ni\u017c w rzeczywisto\u015bci \u2014 spodziewaj\u0105c si\u0119, \u017ce naukowcy dadz\u0105 jej wi\u0119cej czasu, zasob\u00f3w obliczeniowych i danych szkoleniowych itp.<\/span><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Wi\u0119c mo\u017cemy nie wiedzie\u0107, kiedy jest odpowiedni moment na wy\u0142\u0105czenie komputera.<\/span><\/p>\n<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/memegenerator.net\/img\/instances\/46276017.jpg\" alt=\"I'm innocent - Puppy Eyes Puss in Boots | Meme Generator\" width=\"672\" height=\"537\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Ale dzi\u0119ki dost\u0119powi do Internetu sztuczna inteligencja mo\u017ce wys\u0142a\u0107 swoje kopie poczt\u0105 e-mail gdzie\u015b, gdzie zostan\u0105 pobrane i przeczytane, lub w\u0142ama\u0107 si\u0119 do podatnych na ataki system\u00f3w w innym miejscu. Wy\u0142\u0105czenie jednego komputera nie pomog\u0142oby.<\/span><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Przy podejrzeniu przez maszyny pr\u00f3by ich od\u0142\u0105czenia, dzi\u0119ki dost\u0119powi do Internetu sztuczna inteligencja mog\u0142aby wys\u0142a\u0107 swoje kopie poczt\u0105 e-mail gdzie\u015b, gdzie zostan\u0105 pobrane i przeczytane, lub w\u0142ama\u0107 si\u0119 do podatnych na ataki system\u00f3w w innym miejscu. W przypadku rozproszenia si\u0119 sztucznej inteligencji po r\u00f3\u017cnych elementach sieci, od\u0142\u0105czenie jednego komputera mog\u0142oby by\u0107 niewystarczaj\u0105cym rozwi\u0105zaniem<\/span><\/p>\n<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter\" src=\"https:\/\/miro.medium.com\/max\/1200\/1*2ps4KlEODqLbgYt9u5Li7w.png\" alt=\"Approaching Distributed Systems. The nuances to consider when shifting\u2026 | by Benjamin | Better Programming\" width=\"667\" height=\"570\" \/><\/p>\n<p style=\"text-align: justify;\"><span style=\"font-weight: 400;\">Cz\u0119\u015bci\u0105 tego, co sprawia, \u017ce \u200b\u200bsztuczna inteligencja jest trudnym tematem jest fakt, \u017ce nawet je\u015bli b\u0119dziemy wiedzie\u0107, jak podj\u0105\u0107 odpowiednie \u015brodki ostro\u017cno\u015bci (a teraz nie wiemy), musimy r\u00f3wnie\u017c dowiedzie\u0107 si\u0119, jak zapewni\u0107, aby wszyscy potencjalni programi\u015bci AI byli zmotywowani do podj\u0119cia tych \u015brodk\u00f3w ostro\u017cno\u015bci i mie\u0107 narz\u0119dzia do ich prawid\u0142owego wdro\u017cenia.<\/span><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/en.wikipedia.org\/wiki\/Nick_Bostrom\">https:\/\/en.wikipedia.org\/wiki\/Nick_Bostrom<\/a><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/ai.facebook.com\/\">https:\/\/ai.facebook.com\/<\/a><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/www.politico.com\/newsletters\/digital-future-daily\/2022\/04\/26\/elon-musks-biggest-worry-00027915\">https:\/\/www.politico.com\/newsletters\/digital-future-daily\/2022\/04\/26\/elon-musks-biggest-worry-00027915<\/a><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/www.rand.org\/pubs\/research_reports\/RR3139-1.html\">https:\/\/www.rand.org\/pubs\/research_reports\/RR3139-1.html<\/a><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/www.cna.org\/our-media\/newsletters\/ai-and-autonomy-in-russia\">https:\/\/www.cna.org\/our-media\/newsletters\/ai-and-autonomy-in-russia<\/a><\/p>\n<p style=\"text-align: justify;\"><a href=\"https:\/\/www.science.org\/content\/article\/china-s-massive-investment-artificial-intelligence-has-insidious-downside\">https:\/\/www.science.org\/content\/article\/china-s-massive-investment-artificial-intelligence-has-insidious-downside<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Sztuczna inteligencja jest stosunkowo nowym wynalazkiem, od niedawna zyskuj\u0119 du\u017c\u0105 popularno\u015b\u0107, nie tylko w\u015br\u00f3d os\u00f3b technicznych. I jak ka\u017cda z\u0142o\u017cona i nie\u0142atwa do zrozumienia przez ka\u017cdego kwestia, mo\u017ce rodzi\u0107 wiele obaw wobec niej samej jak i cel\u00f3w do kt\u00f3rych b\u0119dzie wykorzystywana.Od samego pocz\u0105tku istnienia maszyn, ludzie zastanawiali si\u0119 czy b\u0119d\u0105 one zawsze tylko narz\u0119dziami w [&hellip;]<\/p>\n","protected":false},"author":64,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[3],"tags":[15,82,184,20],"class_list":["post-1902","post","type-post","status-publish","format-standard","hentry","category-3","tag-ai","tag-artificial-intelligence","tag-danger","tag-sztuczna-inteligencja"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/1902","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/64"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=1902"}],"version-history":[{"count":8,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/1902\/revisions"}],"predecessor-version":[{"id":2755,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/1902\/revisions\/2755"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=1902"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=1902"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=1902"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}