Home » Uncategorized » Bunt robotów – czy roboty, systemy autonomiczne, SI może stać się nie posłuszna wobec ludzkości i swojego twórcy. Analiza zagrożeń i jak się zabezpieczyć.

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 30

Bunt robotów – czy roboty, systemy autonomiczne, SI może stać się nie posłuszna wobec ludzkości i swojego twórcy. Analiza zagrożeń i jak się zabezpieczyć.

Spread the love

Bunt robotów to hipotetyczne zjawisko polegające na tym, że roboty, systemy autonomiczne, SI przestają być posłuszne swojemu twórcy – zazwyczaj na szeroką skalę i zaczynają dla niego stwarzać zagrożenie, w fantastyce często z intencją przejęcia Ziemi. Aktualnie zjawisko to jest tylko rozważaniami, gdyż aktualna technologia nie była jeszcze w stanie stworzyć tak zaawansowanej sztucznej technologii. Głównie mamy z nim do czynienia w fantastyce pod różnymi postaciami. Kinematograficznymi przykładami o tej tematyce są seria “Matrix” czy “Avengers: Age of Ultron”. Często motyw ten występuje także w grach, np. “SOMA” czy “Detroit: Become Human” jak również w literaturze.

 

Superinteligentne SI

Jedną z rozważanych możliwości wystąpienia buntu robotów jest ta, w której ludzkości udało się stworzyć prawdziwe superinteligentne SI, które znacznie przewyższa możliwości najgenialniejszych umysłów. Taka sztuczna inteligencja posiadałaby również niesamowite tempo uczenia się i mogłoby stać się tak potężne, że ludzkość nie byłaby w stanie go powstrzymać. 

 

Nieświadome stworzenie zagrożenia

Jednym z bardzo popularnych przykładów jak SI miałoby doprowadzić do unicestwienia rasy ludzkiej jest sytuacja, w której zadano mu do rozwiązania jakiś bardzo złożony obliczeniowo problem. Superinteligencja, która miałaby rozwiązać taki problem mogłaby zdecydować o przekonwertowaniu całej planety w wielki superkomputer, którego celem byłoby rozwiązanie tego problemu.

 

Problem kontroli SI

Z tych pobudek powstał problem kontroli SI, który polega na zdefiniowaniu w jaki sposób stworzyć SI tak aby pomagało jego twórcom, a nie szkodziło. Niektóre osoby publiczne, jak choćby Elon Musk, Bill Gates czy Stephen Hawking rozważały ten temat nawołując do badań prowadzących do opracowania środków zapobiegawczych, aby ludzkość upewniła się że superinteligentne maszyny pozostaną pod jej kontrolą. W 2014 roku Stephen Hawking powiedział: “Sukces w tworzeniu sztucznej inteligencji byłby największym wydarzeniem w historii ludzkości. Niestety może być też ostatni, chyba że nauczymy się unikać zagrożeń”.

Generalnie “słaba” sztuczna inteligencja nie sprawiła by problemu twórcy. Take SI jesteśmy w stanie łatwo monitorować, modyfikować i w razie potrzeby wyłączyć. Jednakże źle zaprogramowana superinteligencja, która z definicji jest mądrzejsza niż człowiek w rozwiązywaniu praktycznych problemów, by osiągnąć zdefiniowane jej cele doszłaby do wniosku, że pozwolenie się wyłączyć lub zmodyfikować mogłoby przeszkodzić jej w osiągnięciu swojego celu. W takim rozwoju zdarzeń superinteligencja może zdecydować, że nie pozwoli się zmodyfikować lub wyłączyć, a że z definicji jest mądrzejsza od ludzi ciężko byłoby ją okiełznać. Sporym paradoksem tego problemu jest fakt, że jakiekolwiek próby rozwiązania problemu kontroli SI mogą się nie udać, ponieważ superinteligencja byłaby w stanie obejść takie rozwiązania, skoro z definicji jest znacznie mądrzejsza od człowieka

Dużym wyzwaniem w okiełznaniu SI jest fakt, że sieci neuronowe, które aktualnie wyznaczają tor rozwoju sztucznej inteligencji są dość nieprzewidywalne i trudne do zinterpretowania.

 

Kiedy potencjalnie możliwy byłby bunt robotów?

Stan obecny

Badania nad sztuczną inteligencją odbywały się już w pierwszej połowie XX wieku. Przykładowo pierwszy model sztucznego neuronu, został wprowadzony w 1943 roku. Jednak dopiero rozwój komputerów przyspieszył rozwój tej nauki (pierwsze komputery rozpowszechniły się w latach 50 czyli kilka lat po stworzeniu pierwszego komputera. Były one jednak o kilka rzędów wielkości wolniejsze od obecnych). 

Pierwsze laboratorium sztucznej inteligencji powstało już w latach 50 XX wieku na Uniwersytecie Carnegie Mellon. Moc obliczeniowa ówczesnych komputerów pozostawiała wiele do życzenia, przez co możliwe było uczenie co najwyżej bardzo prostych sieci neuronowych jak problem XOR lub niewiele bardziej skomplikowanych nie posiadających żadnych praktycznych zastosowań, a sama implementacja programu była trudna i czasochłonna.

Początkiem 21 wieku nastąpił prawdziwy boom na sztuczną inteligencję i machine learning. W ostatnich 2 dekadach nastąpił ogromny rozwój w tej dziedzinie. Jest to spowodowane co najmniej trzema czynnikami:

 

  1. Komputery osiągnęły na tyle dużą moc obliczeniową, że możliwe jest trenowanie złożonych sieci neuronowych w rozsądnym czasie, mamy szybkie i pojemne dyski, potężne procesory i karty graficzne.
  2. Rozpowszechnienie internetu daje ogromną ilość danych do analizy (zdjęcia, tekst, filmy, mp3, wszelkiego rodzaju pliki itp.)
  3.  Rozwój sztucznej inteligencji mocno się rozwinął dzięki licznym odkryciom, badaniom i rozwiązaniu wielu problemów w tej dziedzinie, co dało nowe algorytmy sposoby, pomysły itp.

 

Rozwój sztucznej inteligencji (w tym machine learningu) jest nie tylko szybki, ale coraz szybszy – wzrost eksponencjalny (sam wzrost eksponencjalny nie dziwi, ponieważ rozwój ogólnorozumianej nauki i gospodarki jest eksponencjalny, jednak szybkość rozwoju niektórych nauk jak np. AI wyróżnia się nawet na tle pozostałych). Coraz więcej firm i inwestorów interesuje się tym tematem.

 

Możliwości 

W bieżącym roku (tj. 2022). Istnieją algorytmy, które jeszcze 10-15 lat temu wydawały się absurdem albo zupełnie odległą przyszłością. Chociażby systemy potrafiące identyfikować tożsamość na podstawie samej twarzy jak np. Pimeyes, albo dużo bardziej zaawansowany chiński system oceny obywateli, potrafiący natychmiast z dużym prawdopodobieństwem zidentyfikować tożsamość na podstawie twarzy z obrazu kamery CCTV z bazy setek milionów twarzy.

 

Inne zaawansowane systemy sztucznej inteligencji (w czego skład wchodzi również machine learning) to na przykład: Całkowicie autonomiczne pojazdy ruchu drogowego (najpopularniejszy to pilot samochodu firmy Tesla), manipulacja obrazem twarzy w rozdzielczości HD w tym generowanie twarzy, zmiana mimiki twarzy w materiale video, zmiana wyglądu osoby (również video) jednocześnie bez zmiany mimiki itp. Istnieje również wiele projektów robotów/asystentów próbujących przypominać ludzkie zachowanie np. asystenci Siri od apple, Sogou oraz roboty humanoidalne takie jak sophia firmy Hanson.

 

W raporcie Intelligence Quotient and Intelligence Grade of Artificial Intelligence według badaczy w roku 2016 IQ najinteligentniejsza sztuczna inteligencja wynosiła 47 IQ. była to Google AI. Inne systemy sztucznej inteligencji (np Siri, Sogou itp) osiągnęły wynik pomiędzy 20 a 40. Natomiast w bieżącym roku 2020 Google AI osiąga wynik ok. 55 IQ. Co odpowiada inteligencji 5-6 latka.

Istnieje też ciekawy przykład sprzed kilku dni już bardziej w kwestii buntu robotów.

Znany system AI generujący realistyczne i artystyczne obrazy na podstawie poleceń słownych stworzył własny język, który jest zrozumiały tylko dla niego. Wraz z obrazami system wyrzuca dziwne słowa, które po wpisaniu pokazują wygenerowane wcześniej elementy obrazka, tworząc logiczną całość.

 

Predykcje

Jak widać przez ostatnie kilkadziesiąt lat, od momentu rozpoczęcia rozwoju sztucznej inteligencji aż do teraz, zostały osiągnięte ogromne postępy. Biorąc pod uwagę to, żę rozwój jest coraz szybszy, można wyciągnąć wniosek, że takiego samego wzrostu, który trwał ostatnie 50 lat, możemy doświadczyć przykładowo w połowie tego czasu. 

Większość naukowców oraz innowatorów jest zdania, że najlepsza sztuczna inteligencja dorówna inteligencji przeciętnego człowieka najpóźniej w 3 dekady, czyli ok. Roku 2050.

Ten fakt oczywiście fascynuje, jednak z drugiej strony rodzi niepokój. Sporo badaczy i specjalistów jest zdania, że szybki rozwój sztucznej inteligencji (oraz machine learningu) poza oczywistymi korzyściami, może mieć również szereg negatywnych skutków dla części ludzi (lub nawet dla całej ludzkości w najczarniejszych scenariuszach)

 

Dlaczego AI miałaby się zbuntować? Czy chodzi o chęć wolności?

Jak powiedział (nieżyjący już) Profesor Stephen Hawking “Super inteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem“. Jako przykład podał on porównanie jak ludzie mogą być odbierani przez percepcję sztucznej inteligencji: “Domyślam się, że nie jest pan kimś, kto nienawidzi mrówek i depcze je w ataku złości, kiedy tylko ma ku temu okazję – mówił, odpowiadając na pytanie pewnego wykładowcy. – Ale wyobraźmy sobie, że jest pan odpowiedzialny za zbudowanie hydroelektrowni i w miejscu, które ma być zalane wodą, znajduje się kolonia mrówek – cóż, mrówki mają pecha. Nie powinniśmy doprowadzić do tego, by ludzie byli takimi mrówkami.

Zatem profesor podkreśla, że sztuczna inteligencja sama z siebie nie musi mieć celu wyrządzenia szkody ludzkości, jednak jeśli okaże się, że ludzie są przeszkodą to AI postawi sobie zadanie usunięcia przeszkody. Nie wchodzą tutaj w grę żadne emocje. Chodzi jedynie o jak najskuteczniejsze zrealizowanie postawionego zadania.

 

Zasady tworzenia sztucznej inteligencji

Prof. Hawking z grupą innowatorów, w której był również wyżej wspomniany Elon Musk, pomógł opracować zestaw 23 zasad “ASILOMAR AI PRINCIPLES” , które powinny chronić ludzkość przed sztuczną inteligencją. 

Zasady zostały podzielone na 3 grupy: 

  • badań – Te zasady mówią o kilku faktach. Powinien być jasno sprecyzowany cel badań nad sztuczną inteligencją. Brak konkretnego celu oznacza, że AI będzie mieć wolny wybór – nie wiadomo co zrobi. badania powinny być również przeprowadzane, z zachowaniem dobrej komunikacji pomiędzy zespołami, dobrą przejrzystością i zaufaniem. 
  • etyki i wartości – Ta grupa zasad skupia się na tym jakimi wartościami powinna kierować się sztuczna inteligencja oraz jak zapobiec wymknięciu się jej spod kontroli naukowców. 
  • kwestie długoterminowe – Tutaj zostały wymienione bardziej ogólne zasady, na które powinniśmy patrzyć się z większej perspektywy czasowej. Na przykład, że sztuczna inteligencja powinna być rozwijana dla wspólnego dobra całej ludzkości, a nie jednego państwa, albo zasada mówiąca o tym, że nigdy powinniśmy zakładać górnych ograniczeń AI.

 

Możliwe rozwiązania

Wyłącznik

Jednym z proponowanych rozwiązań mających na celu powstrzymanie rozszalałej sztucznej inteligencji jest zapewnienie możliwości do łatwego wyłączenia programu w dowolnym momencie, Jak jednak wcześniej opisywaliśmy, może to nie być takie proste. Maszyna może nie pozwolić na wyłączenie się. Laurent Orseau i Stuart Armstrong zaproponowali model agentów, zwanych agentami bezpiecznie przerywalnymi, którzy byliby obojętni na to czy zostaną wyłączeni czy też nie. SI takie zostałoby po prostu odpowiednio wytrenowane.  Dla takiej sztucznej inteligencji nie miałoby więc znaczenia czy jej wyłącznik będzie działać, gdyż nie zależy jej na tym aby pozostać włączoną. Taki model zapobiega więc możliwość świadomego wyłączenia wyłącznika przez SI. Problem jednak polega na tym, że w takim modelu SI wciąż może pozbyć się wyłącznika “przez przypadek” bo nie jest wytrenowane, aby mieć na celu utrzymanie funkcji wyłącznika.

 

Skrzynka SI

Rozwiązanie to ma pozwolić na okiełznanie sztucznej inteligencji poprzez ograniczenie jej działania do odizolowanego systemu komputerowego z bardzo ograniczonymi możliwościami działań. Koncepcja ta jest czasem nazywana też “wirtualnym więzieniem”. Akcje takiego SI ograniczałyby się tylko do określonych kanałów komunikacji, na przykład do rozmowy przez czat tekstowy. Taka sztuczna inteligencja nie miałaby też dostępu do internetu. Problemem w tym rozwiązaniu jest znaczne zmniejszenie użyteczności takiego programu. Inną kwestią jest czynnik ludzki. SI mogłoby być w stanie zmanipulować ludzkiego nadzorcę do jego “wypuszczenia” poprzez zrozumienie psychologii człowieka. Eliezer Yudkowsky przeprowadził eksperyment w którym udawał, że jest sztuczną inteligencją. Za pomocą interfejsu tekstowego komunikował się z nieświadomymi tego faktu ludźmi przystępującymi do eksperymentu. Udało mu się kilkakrotnie nakłonić nadzorcę do wypuszczenia sztucznej inteligencji. Skoro więc udało się to człowiekowi, to co dopiero superinteligencji. Kolejną obawą jest to, czy superinteligencja nie byłaby przypadkiem w stanie “uciec” z takiej skrzynki poprzez zhackowanie jej.

 

Wyrocznia

Wyrocznia to rozwiązanie w którym sztuczna inteligencja nie podejmowała by sama akcji, lecz tylko odpowiadała na pytania. Oczywiście taka wyrocznia nie dawałaby tak wysokich korzyści jak zwykła superinteligencja, jednakże byłaby znacznie bezpieczniejsza. Być może byłaby w stanie też udzielić odpowiedzi na pytanie jak stworzyć i kontrolować bardziej zaawansowaną superinteligencję. 

 

Podsumowanie

Istnieje wiele potencjalnych zagrożeń wynikających z rozwoju sztucznej inteligencji, nie tylko bunt ale też potencjalne problemy z utratą pracy itp. – część z nich już się spełnia. Z drugiej strony istnieje wiele propozycji rozwiązań tych problemów. Przykładowo odpowiedzią wielu krajów na dysproporcje biednych i bogatych było przeprowadzenie eksperymentów z dochodem podstawowym. Być może w taki właśnie sposób będzie się próbować zmniejszyć szkody wyrządzane zastępowaniem ludzi maszynami na rynku pracy? Oczywiście takie rozwiązanie nie jest idealne, ponieważ pociąga za sobą konsekwencje takie jak ogromna ingerencja państwa na wolny rynek, rozleniwienie społeczeństwa, poczucie bezużyteczności itp. O ile na rozwiązanie problemu zastępowania ludzi maszynami, nie mamy wiele czasu, ponieważ ten proces już zachodzi (a na masową skalę będzie widoczny prawdopodobnie w najbliższych kilkunastu latach) to na opracowanie dobrych rozwiązań na inne problemy takich jak dyskryminacja, przejęcie kontroli przez AI nad ludźmi, pozostało jeszcze sporo czasu.

Ważnym jest, aby pamiętać o zasadach 23 ASILOMAR AI PRINCIPLES dla tworzenia sztucznej inteligencji oraz rozwiązaniach takich jak metoda izolacji, czy ograniczenia możliwości akcji jaką jest w stanie wykonać robot, aby nie mógł wyrządzić szkody w rezultacie jakiejś awarii, szczególnie kiedy możliwości AI bedą rzeczywiście na tyle wysokie, że będzie można w niej zobaczyć pewne zagrożenie.

Warto mieć też na uwadze, że wiele firm zajmujących się rozwojem sztucznej inteligencji będzie przedstawiać swój produkt jako bardzo korzystny, być może pozbawiony wad z oczywistych względów – firma ponadwszystko dba o swoje kwestie finansowe. W niniejszym artykule zostało przedstawionych wiele zagrożeń związanych ze sztuczną inteligencją, co może wywoływać pewną niechęć i strach związane z nią. Warto jednak pamiętać, że technologia ta daje bardzo duże możliwości i ma jeszcze ogromne pole do rozwoju, jednak należy zwrócić szczególną uwagę na zagrożenia jak najwcześniej, aby zapobiec wyrządzeniu przez rozwój AI potencjalnych szkód.

 

Odniesienia:

 

https://www.nber.org/papers/w24174

https://www.credit-suisse.com/about-us/en/reports-research/global-wealth-report.html

https://www.suttontrust.com/our-research/social-mobility-2017-summit-research/

https://blog.lawgeex.com/ai-more-accurate-than-lawyers

https://www.frontiersin.org/articles/10.3389/frai.2019.00027/full

https://futureoflife.org/ai-principles/

https://arxiv.org/ftp/arxiv/papers/1709/1709.10242.pdf

https://cyberpolicy.nask.pl/etyczna-sztuczna-inteligencja-rekomendacje-oecd/

 


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…