Home » 2022 » Nieposłuszeństwo sztucznej inteligencji – problem ryzyka egzystencjonalnego

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 47

Nieposłuszeństwo sztucznej inteligencji – problem ryzyka egzystencjonalnego

Spread the love

Nieposłuszeństwo AI jest częstym motywem przewijającym się w filmach science fiction, gdzie stworzone przez człowieka maszyny obracają się przeciwko niemu. Większość ludzi nie ma wątpliwości co do tego, że z inteligentnymi maszynami wiąże się pewne ryzyko. Obawy te opierają się m.in o obserwację, że gatunki o niższej inteligencji są w pełni uzależnione w swoim istnieniu od dobrej woli gatunków o wyższej inteligencji i nieznane są przypadki, w których to gatunek o niższej inteligencji kontrolowałby ten o inteligencji wyższej, stąd też sceptycyzm wobec stwierdzenia, że ludzkość z powodzeniem może kontrolować superinteligencje. Wielu komentatorów jest zdania, że zakodowanie superinteligentnym maszynom wartości i celów ludzi będzie trudne. Z drugiej strony optymiści twierdzą, że superinteligentne maszyny wcale nie muszą charakteryzować się chęcią samozachowania, dążyć do władzy i przejęcia kontroli nad całą planetą.

Wstęp

Wśród filozofów zajmujących się technologią, zarówno tych optymistycznie jak i pesymistycznie spoglądających na tę sprawę, panuje zgoda, że jej metoda jej rozwoju wymaga pewnych zmian w związku z postępami w dziedzinie sztucznej inteligencji [1]. Postuluje się na przykład, że rozwój technologii powinien zostać zdemokratyzowany tak, aby wszystkie grupy społeczne uczestniczyły w procesach decyzyjnych z tym rozwojem związanymi. Głoszą oni, że potrzebny jest nowy sposób myślenia. Filozofowie, prawnicy i informatycy szukają odpowiednich metod i regulacji które mogłyby ograniczy ryzyko związane z rozwojem sztucznej inteligencji i zapewnić, że nie wymknie się ona spod kontroli. Inteligentne maszyny obracające się przeciwko swoim twórcom są częstym motywem powieści i filmów science fiction, co znacznie zwiększyło obawy opinii publicznej, prowadząc do powszechnego przekonania o potrzebie dołożenia wszelkich starań, aby tworzona sztuczna inteligencja była w pełni kontrolowana, bez miejsca na nieposłuszeństwo i sprzeciw wobec ludzi. Być może obawy związane ze sztuczną inteligencją są wyolbrzymione i niezależna sztuczna inteligencja nie jest czymś pryncypialnie złym, a być może nawet byłaby czymś korzystnym, gdyż pozwoliłaby ludzkości wyjść poza obecne ramy rozwoju i wejść na zupełnie nowy poziom cywilizacyjny?

Rys historyczny

Obawy przed maszynami przejmującymi władzę nad światem nie są niczym nowym. Pierwsze tego typu wzmianki można było napotkać już w XIX wieku, kiedy to pisarz Samuel Butler pisał, że moment w którym maszyny przejmą władzę nad całym światem jest tylko kwestią czasu i jedynie kompletni filozoficzni ignoranci tego nie zauważają [2].

Prawie 100 lat po Butlerze, w 1951 roku, uważany za jednego z ojców współczesnej informatyki, Alan Turing, pisał, że najprawdopodobniej maszyny, gdy tylko przewyższają ludzi inteligencją, przejmą nad nimi kontrolę [3]. Jego tok rozumowania wyglądał mniej więcej tak: jeśli można założyć, że inteligentne maszyny są rzeczywiście możliwe do skonstruowania, to z uwagi na ich nieśmiertelność i możliwość ciągłej ewolucji poprzez kontakt jednej maszyny z innymi, należy się spodziewać, że w końcu osiągną one poziom inteligencji ludzi, a następnie go przewyższają. 

Nieco później, w 1965 roku, brytyjski matematyk Irving John Good sformułował pojęcie “eksplozji inteligencji” [4]. Pojęcie to opisuje hipotetyczną ultrainteligentną maszynę, która w każdym intelektualnym aspekcie przewyższa nawet najbardziej inteligentnego człowieka. Skoro jednak we wszystkich czynnościach opartych o umysł maszyna ta przewyższa człowieka, to oznacza to, że także i w czynności związanej z tworzeniem ultrainteligentnych maszyn. W związku z tym ultrainteligentna maszyna mogłaby zaprojektować jeszcze bardziej inteligentną maszynę, co w konsekwencji doprowadziłoby do gwałtownej eksplozji jeśli chodzi o wzrost inteligencji każdej kolejnej maszyny a także czasu potrzebnego na ich tworzenie. Zgodnie z tą koncepcją wynalezienie ultrainteligentnej maszyny mogłoby de facto być ostatnim znaczącym wynalazkiem ludzkości.

Grupa późniejszych badaczy zajmujących się sztuczną inteligencją wskazywała na zagrożenie związane maszynami wymykający się spod kontroli, ale nie nawoływali do podjęcia jakichkolwiek kroków w celu zapobiegnięcia takiemu scenariuszowi, czego efektem jest nawet napisany w 2000 roku przez informatyka Billa Joy’a esej o wymownym tytule “Why Future Doesn’t Need Us”, gdzie wskazał on na superinteligentne roboty jako jedno z największych związanych z rozwojem technologii zagrożeń dla ludzkości [5].

Kilka lat później, w 2009 roku, miała miejsce organizowana przez Association for the Advancement of Artificial Intelligence (AAAI) konferencja, której tematem była możliwość osiągnięcia autonomii przez roboty i ryzyko z tym związane [6]. Wnioski płynące z tej konferencji były takie, że prawdopodobnie jesteśmy daleko od samoświadowych i superinteligentnych maszyn znanych z filmów science fiction, ale pewne zagrożenie jest obecne.

W 2014 roku filozof Nick Bckstrom, znany m.in. z bycia gorącym zwolennikiem transhumanizmu, wydał książkę “Superinteligencja”, która odbiła się sporym echem i wywołała duże napięcie, także wśród wielu znanych osobistości jak Elon Musk czy Bill Gates [7].

Z kolei w 2016 roku znane czasopismo naukowe Nature przestrzegało przed maszynami, które przewyższają ludzi pod każdym względem i mogą rozwijać się poza kontrolą ludzi mając przy tym rozbieżne interesy [8].

Źródła zagrożenia

W literaturze wyróżnia się co najmniej kilka prawdopodobnych przyczyn dla których sztuczna inteligencja może stać się nieposłuszna wobec ludzkości. W tym akapicie przedstawiono część z nich. 

Trudność doboru celu dla AI

Na początku warto zaznaczyć, iż aktualnie większość maszyn/oprogramowań uważanych za sztuczną inteligencję, tak naprawdę nie rozumują w taki sam sposób jak ludzie. Aby zmusić sztuczną inteligencję do wykonywania zadań, definiuje się tak zwane funkcje użyteczności (ang: utility function). Sztucznych inteligencji nie buduje się po prostu po to, by robiły co im się podoba. Istnieją ograniczenia i wszystko zaczyna się od zasad, które są wprowadzane w życie po pierwszym uruchomieniu systemów. Funkcje użyteczności zasadniczo przypisują wagi lub idealne wartości użyteczności pewnym działaniom, które może wykonać system AI [9]. Innymi słowy, AI jest zorientowane na wykonywanie pewnych predefiniowanych zadań, tak by optymalizować zyski. 

Mając na uwadzę powyższą definicję, możemy przywołać teorię Stuarta Russela, który jest znanym specjalistą do spraw sztucznej inteligencji. Teoria ta mówi o tym, że mimo iż utility functions są dobierane przez ludzi, tak aby sztuczna inteligencja wykonywała zadania w sposób zadowalający dla ludzi, to funkcja użyteczności może nie być idealnie zgodna z wartościami rasy ludzkiej, które są bardzo trudne (lub też niemożliwe) do ustalenia [10]. Co więcej, system, któremu powierzamy zadanie do wykonania, będzie zdaniem Russela dążył do kontynuowania swojej egzystencji poprzez pozyskiwanie zasobów fizycznych oraz obliczeniowych, tak aby kontynować powierzone mu zadanie. W dodatku system, który optymalizuje funkcję N zmiennych, gdzie cel zależy od podzbioru wielkości K<N, często ustawia pozostałe nieograniczone zmienne na wartości ekstremalne; jeśli jedna z tych nieograniczonych zmiennych jest w rzeczywistości czymś, na czym nam zależy, znalezione rozwiązanie może być wysoce niepożądane. 

Co to tak właściwie oznacza?

Oznacza to tyle, że jeśli AI, które ma za zadanie sprawienie aby człowiek się uśmiechał, może po prostu podłączyć ludzkie twarze do prądu i stymulować odpowiednio mięśnie twarzy. 

Instrumentalna konwergencja

Instrumentalna konwergencja zakłada, że inteligentny agent o nieograniczonych, ale pozornie nieszkodliwych celach może działać w zaskakująco szkodliwy sposób. Rozróżnia się tutaj tzw. Instrumentalne cele oraz finalne cele. Agent w celu osiągnięcia finalnego celu musi wypełnić też intrumentalne cele. 

Na przykład komputer, którego jedynym, nieograniczonym (finalnym) celem jest rozwiązanie niezwykle trudnego problemu matematycznego, takiego jak na przykład hipoteza Riemanna, mógłby próbować przekształcić całą Ziemię w jeden wielki komputer w celu zwiększenia mocy obliczeniowej, aby mógł odnieść sukces w obliczeniach (instrumentalny cel) [11].

Proponowane podstawowe popędy (instrumentalne cele) sztucznej inteligencji wynikające z tej teorii obejmują według badaczy następujące cele:

  • integralność treści celu, 
  • samoobronę,
  • wolność od ingerencji, 
  • samodoskonalenie
  • niezaspokojone pozyskiwanie dodatkowych zasobów.

Teza Ortogonalności

Teza Ortogonalności stwierdza, że sztuczna inteligencja może mieć dowolną kombinację poziomu inteligencji i celu, to znaczy jej Funkcje Użytkowe i Inteligencja Ogóln mogą się różnić niezależnie od siebie. Jest to sprzeczne z przekonaniem, że ze względu na swoją inteligencję wszystkie AI będą dążyć do wspólnego celu. Teza została pierwotnie zdefiniowana przez Nicka Bostroma w artykule „Superintelligent Will” [12].


Teza ta zatem sugeruje, że nie możemy beztrosko zakładać, że superinteligencja będzie podzielała którąkolwiek z wartości, które stereotypowo kojarzą się z mądrością i rozwojem intelektualnym ludzi, czyli na przykład: ciekawość naukowa, życzliwość, wyrzeczenie się materialnej zachłanności, pokora i bezinteresowność, itd. Bostrom ostrzega również przed antropomorfizmem: człowiek chce realizować swoje projekty w sposób, który ludzie uważają za „rozsądny”, podczas gdy sztuczna inteligencja może nie mieć żadnego szacunku dla jej istnienia ani dla dobra ludzi wokół niej, a zamiast tego może dbać tylko o wykonanie zadania.

Praktyczne konsekwencje są zatem takie, że jeśli stworzona zostanie maszyna, której jedynym celem jest wyliczenie ułamków dziesiętnych liczby pi, to żadne zasady moralne i etyczne nie powstrzymają jej przed osiągnięciem zamierzonego celu za pomocą wszelkich niezbędnych środków. Maszyna może wykorzystać wszystkie zasoby fizyczne i informacyjne, jakie może, aby znaleźć każdy dziesiętny liczby pi, który można znaleźć. 

Bezpośrednie zaprojektowanie złośliwej SI

Wszystkie poprzednie punkty zakładają przypadkowe wyprodukowanie, jednak równie prawdopodobne wydaje się stworzenie złośliwego AI w sposób świadomy i celowy. W artykule “Unethical Research: How to Create a Malevolent Artificial Intelligence” [13] wylistowano cały szereg jednostek, które mogłyby być zainteresowane stworzeniem takiego AI, a są to między innymi:

  • Wojsko, które mogłoby wykorzystać SI jako broń
  • Rządy państw, które mogłyby wykorzystać SI do kontrolowania ludzi i zapewnienia sobie władzy
  • Kryminaliści
  • Osoby, które chcą zademonstrować, że szkodliwe SI nie jest takie szkodliwe 😉
  • I wiele, wiele innych…

Co ciekawe w [14] autorzy pracy wskazują również na to, że inne potencjalnie szkodliwe przedmioty badań naukowych są zabronione i uznawane jako nieetyczne. Odnosi się to na przykład do badań nad sklonowaniem człowieka, czy też badań nad rozwojem broni biochemicznej. Niemniej jednak, nie ma żadnych przeciwwskazań odnośnie prac nad AGI, a zatem nic nie stoi na przeszkodzie, aby ktoś rozpoczął legalnie badania i pozyskał nawet granty na ten cel.

Oczywiście kwestią dyskusyjną jest, czy wszystkie badania nad AGI istotnie są nieetyczne.

Atak wyprzedzający

Jak wspomniano w poprzednim punkcie, możliwe jest, że złośliwa sztuczna inteligencja ściągająca na ludzkość ryzyko wyginięcia może zostać zaprojektowana właśnie przez samego człowieka. Mając to na uwadzę, kraje, czy też sojusze mogą się nawzajem podejrzewać o pracę nad taką technologią. W przypadku, gdyby któraś ze stron była bliska opracowania tego typu AI, przeciwna strona mogłaby rozpocząć militarne działania, aby zapobiec temu. W szczególnym przypadku, takie działania militarne mogą przerodzić się w wojnę nuklearną, która spowodowałaby koniec rodzaju ludzkiego.

Sposoby na ochronę przed AI

Prawa robotyki Asimova są klasycznym i jednym z najbardziej znanych przykładów zestawu reguł mających zapewnić, że przyszłe inteligentne maszyny będą kontrolowane przez człowieka. Ich głównym celem jest zapewnienie bezpieczeństwa życia ludzkiego w interakcji z robotami oraz zagwarantowanie, że roboty te będą przestrzegać zaprogramowanego zestawu norm etycznych. Sformułowane przez Asimova w 1942 roku cztery prawa robotyki to [17,18]:
0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.


Wydaje się, że głównym problemem, z jakim trzeba będzie się zmierzyć w kontekście sztucznej inteligencji jest problem kontroli jej rozwoju, gdy będzie ona już w stanie w autonomiczny i rekursywny sposób rozwijać i usprawniać samą siebie [19]. Rozwiązaniem wydaje się być rozwijanie tylko takiego typu sztucznej inteligencji, która byłaby przyjazna i przejawiała altruizm wobec ludzi, i która tworząc kolejne wersji samej siebie przekazywałaby te cechy dalej. Wielu ekspertów z Bostromem na czele optuje za zwiększeniem finansowania badań skupiających się wokół bezpieczeństwa sztucznej inteligencji, tak żeby rozwój technologii zabezpieczających wyprzedzał rozwój tych niosących ze sobą ryzyko egzystencjalne [20]. Innym sposobem na ochronę przed ewentualnym zagrożeniem ze strony sztucznej inteligencji jest postawa ugruntowana w transhumanizmie i postulująca usprawnianie ludzkiego mózgu za pomocą technologii. Proponentem takiego podejścia jest np. Elon Musk, który już jakiś czas temu rozpoczął pracę nad swoim własnym rozwiązaniem w tym obszarze – Neuralinkiem [21]. Sceptycy wobec tego rozwiązania wskazują jednak, że sama tego typu technologia może stać się zagrożeniem. Inni twierdzą, że skutecznym sposobem jest stworzenie przyjaznej sztucznej inteligencji, która byłaby potężniejsza od tej o niecnych zamiarach i mogłaby przed nią chronić. Przykładem proponowanej strategii Jest “AGI nanny”, której założeniem jest stworzenie w pełni kontrolowanej sztucznej inteligencji o możliwościach większych niż ludzkie, ale wciąż dalekiej od statusu superinteligencji. AGI Nanny miałaby być podłączona do ogromnej sieci nadzoru w celu monitorowania niebezpieczeństw i ochrony ludzkości [22]. Jednak prowadzi to do regresu i konieczności kontroli tej dominującej, najpotężniejsze wersji sztucznej inteligencji.


Jednym ze skrajnych rozwiązań mógłby być całkowity zakaz badań w tym obszarze, ale zarówno eksperci dostrzegający zagrożenia, jak i ci sceptyczni w tym względzie, są zgodni, że zakaz jest złym rozwiązaniem. Po pierwsze, taki zakaz byłby bardzo trudny egzekwowaniu, ponieważ tworzyłoby to perspektywę ogromnych zysków dla tych, którzy pomimo zakazu tę pracę by kontynuowali. Po drugie, nawet jeśli udałoby się taki zakaz z powodzeniem wprowadzić w takich państwach jak np. Stany Zjednoczone, to badania w zakresie sztucznej inteligencji mogłoby wciąż trwać w innych państwach, w których na dodatek świadomość zagrożeń i nacisk na kontrolę i bezpieczeństwo sztucznej inteligencji są znacznie mniejsze, co w konsekwencji mogłoby doprowadzić do jeszcze większego zagrożenia.

Często poruszana jest także kwestia związana z potrzebą jak najszybszego wprowadzania odpowiednich regulacji prawnych trwającego rozwoju technologii. Niektórzy, jak chociażby Elon Musk, biją na alarm i twierdzą, że należy dokonać tego jak najszybciej. Inni uważają, że sztuczna inteligencja jest wciąż w powijakach i nie ma ma potrzeby się śpieszyć. Jeszcze inni postulują jedynie wprowadzenie ogólnoprzyjętych standardów testowania i przejrzystości algorytmów. W 2020 roku powstało The Global Partnership on Artificial Intelligence (GPAI), którego nadrzędnym celem jest dokładanie starań, aby rozwój sztucznej inteligencji przebiegał w zgodzie z prawami człowieka i wartościami demokratycznymi [23].  W roli członków założycieli wystąpiły Australia, Kanada, Unia Europejska, Francja, Niemcy, Indie, Włochy, Japonia, Republika Korei, Meksyk, Nowa Zelandia, Singapur, Słowenia, USA i Wielka Brytania. Cztery główne tematy, którymi zajmuje się GPAI to: zarządzanie danymi, odpowiedzialna sztuczna inteligencja, przyszłość pracy i innowacyjność oraz komercjalizacja. Tematyka ta była także poruszana na wielu międzynarodowych forach i konferencjach jak Światowe Forum Ekonomiczne.

Ważnym obszarem związanym z zagrożeniem stwarzanym przez sztuczną inteligencję jest ten dotyczący militarnego wykorzystania technologii. Wielu ekspertów mówi już o zjawisku wyścigu zbrojeń związanego z wprowadzaniem sztucznej inteligencji, gdzie państwa będą konkurować w tym, które z nich będzie mieć dostęp do najlepszej sztucznej inteligencji, gdyż potencjalnie zapewni to olbrzymią przewagę i światową dominację [24]. I w tym obszarze trwają obecnie prace nad międzynarodowymi normami określającymi priorytety w kwestii bezpieczeństwa i stawiania przede wszystkich na rozwój technologii mitygujących ryzyko zagrożeń. W ostatniej dekadzie miało także miejsce kilka dużych międzynarodowych dyskusji na temat podejścia do broni autonomicznej, w celu wypracowania wspólnych uniwersalnych zasad w tej materii. 

Opinie wizjonerów

To czy AI istotnie może zagrażać ludzkości w przyszłości jest przedmiotem licznych debat toczących się od wielu lat. Pomimo tego, iż publikowane są liczne artykuły podejmujące ten temat, do opinii publicznej najczęściej przedostają się wypowiedzi znanych wizjonerów takich jak Steven Hawking, Elon Musk,  Bill Gates, Yann LeCunn  czy też Eric Horvitz.

“AI could spell end of the human race” – stwierdził wybitny fizyk. W dalszych słowach, ostrzega on również, że gdy ludzie stworzą silną sztuczną inteligencję, będzie ona w stanie sama się modyfikować w coraz większym tempie, a ludzie ograniczeni przez ich biologiczną nature nie będą w stanie nawet konkurować z bytem napędzanym elektronicznymi zasobami. 

Elon Musk stwierdził, że rozwój AI to domena, w której powinniśmy działać szczególnie proaktywnie, ponieważ w przeciwnym wypadku może być już za późno na działanie. Zauważył on, że w przeszłości istotnie regulacje były wprowadzane reaktywnie (ale nie natychmiastowo) jako odpowiedź na pewne zdarzenia, jednak do tej pory nie były to kwestie związane z przetrwaniem ludzkości, tak jak w tym przypadku. Musk również wyznał, że ryzyko egzystencjalne związane z AI jest dla niego najstraszniejszym problemem. Dodatkowo, nieuchronność tego problemu jest jego zdaniem podsycana przez niekończący się wyścig w rozwoju AI prowadzony przez wiele firm, które nie mogą sobie pozwolić na wycofanie się z niego, gdyż to skutokowałoby dla nich nawet bankructwem. Co więcej, Musk uważa, że w prawodawcy powinni w tym miejscu zatrzymać wyścig i upewnić się, że AI jest naprawdę bezpieczne.

Założyciel Microsoftu powiedział, że obawia się super AI. Bill Gates przewiduje, iż na początku rzeczywiście AI będzie wykonywać dużo naszej pracy i nie będzie superinteligentne, jednak z czasem może nam się wyrwać spod kontroli. Zaznczył on również, że podziela zdanie Elona Muska w tej sprawie [15]. 

Po drugiej stronie barykady stoi również wielu znanych wizjonerów, którzy nie uważają AGI za zagrożenie dla ludzkości. Na przykład, zdobywca nagrody Turinga Yann LeCunn argumentuje, że jeśli okażemy się być wystarczająco mądrzy, żeby stworzyć superinteligencję, to musielibyśmy się okazać wyjątkowo nierozstropni, żeby pozwolić jej wymnkąć się poza naszą kontrolę i zniszczyć nasz gatunek:

If we are smart enough to build machine with super-human intelligence, chances are we will not be stupid enough to give them infinite power to destroy humanity.”  – Yann LeCunn [16].

Co więcej, LeCunn uważa, że nie ma żadnego dowodu na to, że AI w ogóle będzie zainteresowane przejęciem władzy nad światem, a takie przekonanie może wynikać z tego, że jedyną formą inteligencji jaką znamy są inni ludzie. LeCunn dodał również, że nawet u ludzi wysoka inteligencja nie zawsze koreluje z chęcią posiadania władzy. Kolejną interesującą obserwacją jest fakt, że wiele negatywnych ludzkich zachowań takich jak: bycie agresywnym, gdy nam coś zgraża, czy też zazdrość, a nawet chęć zajęcia pewnych zasobów na nasz własny uzytek wynika z ewolucji, która skupiona była na potrzebie przetrwania, a AI nie będzie wykazywało takich zachowań, jeśli sami ich nie zaprogramujemy.

Podobne podejście do kwestii ryzyka egzystencjalnego ma Eric Horvitz – Chief Scientific Officer Microsoftu. 

There have been concerns about the long-term prospect that we lose control of certain kinds of intelligences. I fundamentally don’t think that’s going to happen.”  – Eric Horvitz [15].

Zdaniem Horvitz-a, ludzkość będzie działać bardzo proaktywnie w stusunku do AI i nie pozwoli na to, aby wymknęła nam się spod kontroli do tego stopnia, aby doszło do zagłady ludzkości. Co więcej, naukowiec jest przekonany, że AI przyniesie nam wiele korzyści w wielu różnych aspektach naszego życia [9].

 

Podsumowanie

Obecnie zdania na temat stopnia zagrożenia egzystencjalnego dla ludzkości, jakie niesie ze sobą rozwój sztucznej inteligencji są mocno podzielone. Istnieją opinie skrajnie optymistyczne i skrajnie pesymistyczne. Wydaje się, że panuje zgoda co do opinii, że ze sztuczną inteligencją, jak z większością zdobyczy technologicznych, związane są pewne zagrożenia, ale różne jednostki różnie te zagrożenia postrzegają. Niewątpliwie pogląd na to, do czego potencjalnie mogą być zdolne inteligentne maszyny znalazł się pod dużym wpływem różnego rodzaju powieści i filmów science fiction, jak chociażby Terminator. Nie bez znaczenia są też mocno alarmistyczne postawy wielu znanych osobistości. Scenariusz rysowany w produkcjach science fiction nie musi jednak zostać urzeczywistniony. Być może ludzie i maszyny będą wobec siebie bytami komplementarnymi i nie należy spoglądać na tę kwestię z ograniczonego, znajdującego się pod wpływem ludzkich cech, punktu widzenia? Czy sztuczna inteligencja musi przejawiać emocje i zachowania podobne do ludzi i często prowadzącego do katastrofalnych skutków? Jeśli nawet nie uda się w pełni kontrolować superinteligentnych maszyn, to czy koniecznie musi to oznaczać coś złego? Biorąc pod uwagę niektóre przewidywania co do czasu, jaki dzieli ludzkość od ich stworzenia, być może odpowiedź na to pytanie przyjdzie w ciągu najbliższych kilku dekad, a być może – jak twierdzą inni – na odpowiedź przyjdzie poczekać kilkaset lat.

 

Bibliografia

[1] Hosseinpour, Hesam. (2020). Disobedience of AI: Threat or promise. Információs Társadalom. 20. 48.10.22503/inftars.XX.2020.4.4.
[2] Breuer, Hans-Peter. ‘Samuel Butler’s “the Book of the Machines” and the Argument from Design.’ Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383

[3] Turing, A M (1996). “Intelligent Machinery, A Heretical Theory”. 1951, Reprinted Philosophia Mathematica. 4 (3): 256–260. doi:10.1093/philmat/4.3.256.

[4] I.J. Good, “Speculations Concerning the First Ultraintelligent Machine” Archived 2011-11-28 at the Wayback Machine (HTML ), Advances in Computers, vol. 6, 1965.

[5] Anderson, Kurt (26 November 2014). “Enthusiasts and Skeptics Debate Artificial Intelligence”. Vanity Fair.

[6] Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, The New York Times, 26 July 2009.

[7] Metz, Cade (9 June 2018). “Mark Zuckerberg, Elon Musk and the Feud Over Killer Robots”. The New York Times.

[8] Anticipating artificial intelligence, Nature 532, 413 (28 April 2016) doi:10.1038/532413a

[9] http://www.ifthen.ai/2018/05/01/what-is-a-utility-function/211/

[10] https://www.edge.org/conversation/the-myth-of-ai#26015

[11] Russell, Stuart J.; Norvig, Peter (2003). “Section 26.3: The Ethics and Risks of Developing Artificial Intelligence”. Artificial Intelligence: A Modern Approach. Upper Saddle River, N.J.: Prentice Hall. ISBN 978-0137903955

[12] Bostrom, Nick (2012). “Superintelligent Will”. Nick Bostrom. Nick Bostrom.

[13] Pistono, F.; Yampolskiy, R. V. (2016) ‘Unethical Research: How to Create a Malevolent Artificial Intelligence’. arXiv. doi: 10.48550/ARXIV.1605.02817.

[14] Yampolskiy, R.V., Artificial intelligence safety engineering: Why machine ethics is a wrong approach, in Philosophy and Theory of Artificial Intelligence. 2013, Springer Berlin Heidelberg. p. 389-396. 

[15] https://www.bbc.com/news/31047780 

[16] https://www.forbes.com/sites/quora/2017/02/09/could-artificial-intelligence-ever-become-a-threat-to-humanity/?sh=4b732d502142
[17] Asimov, Isaac (1950). “Runaround”. I, Robot (The Isaac Asimov Collection ed.). New York City: Doubleday. p. 40. ISBN 978-0-385-42304-5.

[18] Asimov, Isaac (1985). Robots and Empire. Doubleday books. p. 151. ISBN 978-0-385-19092-3.

[19] Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112.

[20] Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing Plc. ISBN 9781526600196.

[21] Winkler, Rolfe (March 27, 2017). “Elon Musk Launches Neuralink to Connect Brains With Computers”. Wall Street Journal.

[22] Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). “Responses to catastrophic AGI risk: a survey”. Physica Scripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.

[23] https://gpai.ai/

[24] Geist, Edward Moore (2016-08-15). “It’s already too late to stop the AI arms race—We must manage it instead”. Bulletin of the Atomic Scientists. 72 (5): 318–321.

[25] https://isps.yale.edu/news/blog/2016/11/yes-we-are-worried-about-the-existential-risk-of-artificial-intelligence

[26] https://youtu.be/fFLVyWBDTfo?t=245

[27] https://www.youtube.com/watch?v=bzAXifQIUZ8&ab_channel=WPRI


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…