Sztuczna inteligencja jest stosunkowo nowym wynalazkiem, od niedawna zyskuję dużą popularność, nie tylko wśród osób technicznych. I jak każda złożona i niełatwa do zrozumienia przez każdego kwestia, może rodzić wiele obaw wobec niej samej jak i celów do których będzie wykorzystywana.Od samego początku istnienia maszyn, ludzie zastanawiali się czy będą one zawsze tylko narzędziami w naszych rękach, czy może staną się równymi nam istotami, bądź co gorsza – przewyższą nas jako forma istnienia i np. zniszczą bądź zdominują. Już w 1863 r. w artykule pt. Darwin wśród maszyn opublikowanym w The Press autor zakłada, że maszyny to inny rodzaj życia, który podlega prawom ewolucji, co może doprowadzić do wyparcia przez nich ludzi. Do pewnego czasu takie rozważania pozostawały w domenie literatury, głównie science fiction, jak np. Odyseja Kosmiczna, bądź filmach, np. Matrix. Z reguły są to obrazy pesymistyczne czy wręcz dystopijne, lecz zdarzają się wyjątki – jak np. postaci robotów obdarzonych sztuczną inteligencją, np. w serii Star Trek. Dopiero od niedawna, wraz z rozwojem nauki i technologii w polu sztucznej inteligencji, pojawiają się głosy ludzi powiązanych z nauką, podejmujących te tematy i rozważających na tematy potencjalnych skutków rozwoju AI, bądź regulacji jakie należy zacząć stosować.
Potencjalny scenariusz – technologiczna osobliwość
Jedną z pierwszych osób które użyła określenia osobliwości w kontekście maszyn był John von Neumann. Pojęcie to oznacza osiągnięcie takiego tempa rozwoju sztucznej inteligencji, które będzie się nasilać coraz bardziej i ostatecznie doprowadzi do opracowania sztucznej inteligencji przerastającej człowieka. Jednym z zakładanych scenariuszy jest np. wybuch inteligencji – w tym scenariuszu pewna już istniejąca sztuczna inteligencja osiąga taki stopień kompetencji w np. wytwarzaniu oprogramowania i sprzętu, że jest w stanie wytworzyć inteligentniejszą wersję samej siebie, która to stworzy jeszcze inteligentniejszą wersję i w taki sposób dojdzie do lawinowo przyspieszającego wytworzenia się coraz to potężniejszej inteligencji, która ostatecznie przerośnie znacznie tę ludzką. Rozważane jest nawet to, że owa inteligencja przerośnie również człowieka w kwestii umiejętności poznawczych, co jeszcze bardziej pozwoli jej zrozumieć np. prawa fizyki, których znajomość może przyspieszyć owy rozwój jeszcze bardziej. Wystąpienie tego zjawiska często jest argumentowane istnieniem prawa Moore’a, które określało że liczba tranzystorów w układach scalonym rośnie wykładniczo. Sceptyków takiego scenariusza nie brakuje – argumentują oni np. tym że, maszyny mogą zdobyć inteligencję w rozpoznawaniu pewnych wzorców, obliczeniach ale zawsze będzie im brakować inteligencji np. kreatywnej czy moralnej co będzie znacznie ograniczać możliwość takiego gwałtownego rozwoju. Dodatkową argumentacją jest to, że jak w przypadku prawa Moore’a, rozwój złożoności maszyn będzie miał swoją granicą, spowodowaną przez prawa fizyki.
Spory o rozwój sztucznej inteligencji
Oczywiście pesymiści widzą wyżej opisany scenariusz jako coś złego – sztuczna inteligencja, która przerośnie ludzką, wg nich będzie, albo wrogo nastawiona ludzkości i np. pozbędzie się jej jako potencjalnego wroga, bądź będzie traktować nas jak niższe formy życia, tak jak my traktujemy zwierzęta, przez co okres panowania ludzi na Ziemi się skończy. Optymiści widzą tutaj inną drogę i traktują taki scenariusz jako kolejny etap rozwoju technologicznego, który dzięki wykładniczym tempie, mógłby w krótkim czasie doprowadzić do np. opracowania leków, wydajnych i ekologicznych technologii wytwarzania energii. W debacie publicznej również usłyszymy 2 strony konfliktu. Co ciekawe obie strony oskarżają tę drugą, o to że popełniają zasadniczy błąd w snuciu swych teorii – mianowicie dokonują antropomorfizacji maszyn. Ludzie, którzy zakładają że sztuczna inteligencja zdominuje ludzi i ew. pozbędzie się ich, oskarża drugą stronę, że uważają, iż maszyny w trakcie swojego rozwoju przejmą od ludzi takie cechy jak moralność, czy współczucie, dzięki którym maszyny będę miały zawsze na uwadze dobro ludzkości – czyli de facto będą spełniały 1. prawo Asimova. Natomiast optymiści oskarżają drugą stronę debaty o to, że zakładają iż sztuczna inteligencja wytworzy swego rodzaju ambicje, które to np. mogą spowodować próbuję przejęcia kontroli nad światem, bądź będą żądne władzy. Istnieją również sceptycy, którzy twierdzą że do przebudzenia się świadomości sztucznej inteligencji nie dojdzie, i że wszelkie maszyny, oprogramowanie i algorytmy na zawsze pozostaną tylko narzędziami, a to do czego będą używane zależeć będzie tylko i wyłącznie od ich twórców, czyli nas – ludzi.
AI jako narzędzie zagłady
Od około 2015r. można zauważyć rosnące zainteresowanie sztuczną inteligencją w kwestiach militarnych. Oczywistym jest wyścig zbrojeń największych państw. Niektórzy porównują ten wyścig z zimną wojną, w której atom został zastąpiony przez sztuczną inteligencję. W USA z roku na rok, rząd inwestuje coraz więcej pieniędzy w rozwój sztucznej inteligencji i big data. Istnieją już pewne militarne zastosowania, np. okręt wojenny Sea Hunter, który potrafi operować bez załogi, czy drony które potrafią odnaleźć i wyeliminować konkretny cel. Poza Stanami Zjednoczonymi, największym graczem są Chiny, w mniejszym stopniu inne kraje takie jak Rosja. W każdym z tych krajów, wysoko postawieni generałowie wypowiadają się, że sztuczna inteligencja jest kolejnym etapem w rozwoju militari.
Jak bardzo powinniśmy się martwić?
Nick Bostrom jest profesorem na Uniwersytecie Oksfordzkim, dyrektorem Instytutu Przyszłości Ludzkości i dyrektorem Programu Zarządzania Sztuczną Inteligencją. Bada zagrożenia dla ludzkości, zarówno w sposób abstrakcyjny – zadając pytania, jak to, dlaczego wydaje się, że jesteśmy sami we wszechświecie – i konkretnie, analizując postęp technologiczny i czy nam zagraża. Doszedł do wniosku, że sztuczna inteligencja jest zagrożeniem. W 2014 roku napisał książkę opisującą zagrożenia, jakie stwarza sztuczna inteligencja konkludując: „gdy już istnieje nieprzyjazna superinteligencja, uniemożliwiłoby nam to zastąpienie jej lub zmianę jej preferencji. Nasz los byłby przypieczętowany”.
Szef zespołu naukowców Facebooka, zajmujących się sztuczną inteligencją, Yann LeCun, chociaż twierdzi, że nie powinniśmy bać się AI, nadal uważa, że powinniśmy zatrudniać ludzi pracujących nad i myślących o bezpieczeństwie w kwestii AI. „Nawet jeśli ryzyko dotyczące sztucznej inteligencji powstanie jest bardzo mało prawdopodobne i bardzo odległe, nadal musimy o tym pomyśleć, zaprojektować środki ostrożności i ustalić wytyczne” – pisze..
Nie oznacza to, że istnieje konsensus ekspertów – daleko od tego. Istnieje poważna różnica zdań na temat tego, które podejścia wydają się najprawdopodobniej doprowadzić nas do sztucznej inteligencji i jak szybko musimy się tym martwić. Ale ten spór nie powinien przesłaniać możliwości, o których warto pomyśleć, zainwestować i zbadać, więc będziemy mieli wskazówki, gdy nadejdzie moment, w którym są potrzebne.
Poglądy na zakazy i regulacje
Istnieje prawie powszechna zgoda, że próby zakazania badań nad sztuczną inteligencją byłyby nierozsądne i prawdopodobnie daremne. Sceptycy twierdzą, że regulacja AI byłaby całkowicie bezwartościowa, ponieważ nie stwarza ona aktualnie ryzyka dla ludzkości. Prawie wszyscy uczeni, którzy wierzą, że istnieje ryzyko egzystencjalne, zgadzają się ze sceptykami, że zakaz prowadzenia badań byłby nierozsądny, ponieważ badania mogłyby zostać przeniesione do krajów o luźniejszych przepisach lub prowadzone potajemnie.
Elon Musk wezwał do pewnego rodzaju regulacji rozwoju sztucznej inteligencji już w 2017 roku. Według NPR, dyrektor generalny Tesli „wyraźnie nie jest zachwycony”, że opowiada się za kontrolą rządową, która mogłaby wpłynąć na jego własną branżę, ale uważa, że ryzyko związane z całkowitym brakiem nadzoru jest zbyt wysokie. Odpowiadając zarówno Muskowi, jak i na propozycje prawodawców Unii Europejskiej z lutego 2017 r., aby uregulować sztuczną inteligencję i robotykę, dyrektor generalny Intela Brian Krzanich przekonuje, że sztuczna inteligencja jest w powijakach i jest za wcześnie, by regulować tę technologię.
Na regulację sztucznej inteligencji prawdopodobnie wpłynęłaby regulacja uzbrojonej lub zmilitaryzowanej sztucznej inteligencji, tj. wyścigu zbrojeń sztucznej inteligencji, którego regulacja jest pojawiającą się kwestią. Regulacja badań nad sztuczną inteligencją koncentruje się na roli rad kontrolnych i zachęcaniu do badań nad bezpieczną sztuczną inteligencją oraz możliwościami zróżnicowanego postępu technologicznego (nadawanie priorytetu strategiom ograniczania ryzyka nad strategiami podejmowania ryzyka w rozwoju AI)
Dlaczego nie mogliśmy po prostu wyłączyć komputera, jeśli stał się zbyt potężny?
Sztuczna inteligencja mogłaby przewidzieć to, że ludzie próbują ją wyłączyć. Dlatego starałaby się nie denerwować nas, ponieważ nie pomogłoby jej to osiągnąć swoich celów. Jeśli zostanie zapytana, jakie są jej intencje lub nad czym pracuje, spróbuje ocenić, które odpowiedzi są najmniej prawdopodobne, aby ją wyłączyć, i nimi odpowie. Dodatkowo mogłaby udawać, że jest głupsza niż w rzeczywistości — spodziewając się, że naukowcy dadzą jej więcej czasu, zasobów obliczeniowych i danych szkoleniowych itp.
Więc możemy nie wiedzieć, kiedy jest odpowiedni moment na wyłączenie komputera.
Ale dzięki dostępowi do Internetu sztuczna inteligencja może wysłać swoje kopie pocztą e-mail gdzieś, gdzie zostaną pobrane i przeczytane, lub włamać się do podatnych na ataki systemów w innym miejscu. Wyłączenie jednego komputera nie pomogłoby.
Przy podejrzeniu przez maszyny próby ich odłączenia, dzięki dostępowi do Internetu sztuczna inteligencja mogłaby wysłać swoje kopie pocztą e-mail gdzieś, gdzie zostaną pobrane i przeczytane, lub włamać się do podatnych na ataki systemów w innym miejscu. W przypadku rozproszenia się sztucznej inteligencji po różnych elementach sieci, odłączenie jednego komputera mogłoby być niewystarczającym rozwiązaniem
Częścią tego, co sprawia, że sztuczna inteligencja jest trudnym tematem jest fakt, że nawet jeśli będziemy wiedzieć, jak podjąć odpowiednie środki ostrożności (a teraz nie wiemy), musimy również dowiedzieć się, jak zapewnić, aby wszyscy potencjalni programiści AI byli zmotywowani do podjęcia tych środków ostrożności i mieć narzędzia do ich prawidłowego wdrożenia.
https://en.wikipedia.org/wiki/Nick_Bostrom
https://www.rand.org/pubs/research_reports/RR3139-1.html
https://www.cna.org/our-media/newsletters/ai-and-autonomy-in-russia
Trzeba zwrócić uwagę, że aktualnie są już wprowadzane rozwiązania przeciwdziałające temu problemowi.
Chiny jako pierwsze na świecie wprowadziły regulacje. ( W marcu tego roku)
https://www.techtarget.com/searchenterpriseai/news/252514781/Chinas-AI-regulations-face-technical-challenge
Analogiczne prace prowadzą eksperci w Unii Europejskiej, ale jeszcze nic nie zostało wprowadzonego.
https://hbr.org/2021/02/is-china-emerging-as-the-global-leader-in-ai
Chciałbym też zaznaczyć, że nie głos USA jest ważny w kontekście AI a Chin.
https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792