Home » UJ 2022/23 » Superinteligencja – kiedy maszyny staną się mądrzejsze od nas?

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 48

Superinteligencja – kiedy maszyny staną się mądrzejsze od nas?

Spread the love

 

Superinteligencja to słowo, które często pojawia się w artykułach opisujących przyszłość sztucznej inteligencji, ale czym ona tak naprawdę jest? Jakie są ścieżki wiodące ku superinteligencji oraz jakie są jej możliwości, ale przede wszystkim — do jakich zagrożeń może prowadzić? W tym poście postaramy się odpowiedzieć na wszystkie te pytania.

 

Kilka słów wprowadzenia

Definicja sztucznej inteligencji, a więc i Superinteligencji stale się zmienia. Dla przykładu, w latach 90′ ubiegłego wieku uważano, że jeżeli uda się stworzyć system informatyczny zdolny do wygrania w szachy z każdym człowiekiem, będzie to równoznaczne ze stworzeniem sztucznej inteligencji ogólnej, w skrócie AGI — ang. Artificial General Inteligence (więcej na ten temat później), ponieważ jak wtedy twierdzono gra w szachy stanowi podwaliny umysłu człowieka i jest możliwa tylko dla istot inteligentnych, czyli ludzi. Niedługo później okazało się, że aby grać w szachy na poziomie mistrzowskim, wystarczy program do przeszukiwania i ewaluowania stanów planszy, który nie zawiera elementów sztucznej inteligencji, tak więc definicja co uznawane było za sztuczną inteligencję, znów się przesunęła. Wynika z tego, że to, co my uznajemy dziś za sztuczną inteligencję i superinteligencję, może ulec zmianie w niedalekiej przyszłości.

 

Superinteligencja

Superinteligencja, ASI — ang. Artificial Super Inteligence, to intelekt, który jest znacznie mądrzejszy od najlepszych ludzkich organizmów w każdej dziedzinie, włączając w to kreatywność, mądrość ogólną, a nawet umiejętności społeczne. W definicji nie jest sprecyzowane, czym ten podmiot jest, a więc może być to pojedynczy umysł, zbiór wielu umysłów, które tworzą sieć, istota biologiczna podobna do człowieka, lub coś innego. Kluczowe dla definicji są słowa „w każdej dziedzinie”, ponieważ systemy, które przewyższają człowieka w pojedynczych zadaniach, istnieją od wielu lat. Przykładem takiego systemu jest AlphaZero opracowany przez firmę Deep Mind. Program jest zdolny wygrać z każdym człowiekiem w gry takie jak szachy lub GO. Taki rodzaj inteligencji, gdzie system jest wyspecjalizowany do wykonywania jednego zadania, nazywamy sztuczną inteligencją wąską, ANI — Artificial Narrow Inteligence. Pomimo tego, że AlphaZero jest niekwestionowanym mistrzem szachów, gdy poprosimy go o wykonanie jakiegokolwiek innego zadania niezwiązanego z grą w szachy, nie będzie w stanie go wykonać.

 

Rodzaje superinteligencji

W celu posunięcia analizy pojęcia superinteligencji należy rozłożyć je na czynniki elementarne poprzez podział na rodzaje grupy, które różnią się pod kątem zdolności poszczególnej ASI. Nick Bostrom w swojej książce: “Superinteligencja. Scenariusze, strategie, zagrożenia” proponuje trzy rodzaje superinteligencji: szybką, zbiorową, oraz jakościową.

 

Superinteligencja szybka

Superinteligencja szybka to podmiot, który przypomina umysł człowieka, lecz jest o wiele rzędów wielkości szybszy. Taki system potrafi dokonać tego samego co człowiek, lecz znacznie szybciej, na przykład przeczytać książkę w kilka sekund, lub napisać pracę doktorancką w jedno popołudnie. Najprostszym przykładem superinteligencji szybkiej jest emulacja ludzkiego mózgu uruchomiona na superszybkim komputerze. Aby podnieść poziom wydajności takiego systemu, należy zapewnić mu szybszy sprzęt komputerowy. Jeżeli mnożnik szybkości systemu zostanie podniesiony do rzędu miliona, emulacja będzie w stanie wykonywać całe tysiąclecia pracy intelektualnej w ciągu jednego dnia roboczego. Umysłowi tak szybkiemu zdarzenia w zewnętrznym świecie rzeczywistym wydawałyby się spowolnione, dlatego prawdopodobnie najchętniej współpracowałby on z innymi podmiotami jak on sam. W miarę dalszego rozwoju technologicznego prędkość światła stanowi nieprzekraczalne ograniczenie. Konsekwencją mogłoby być to, że cyfrowi agenci, którzy ze sobą współpracują, byliby umieszczani w tym samym budynku, aby uniknąć opóźnień w komunikacji.

 

Superinteligencja zbiorowa

Drugim rodzajem jest superinteligencja zbiorowa, czyli system złożony z dużej liczby mniejszych podmiotów rozumnych, który znakomicie przewyższa jakikolwiek współczesny system poznawczy w każdej dziedzinie nauki. Inteligencja zbiorowa osiąga znakomite wyniki w rozwiązywaniu problemów, które można rozbić na mniejsze podproblemy i równolegle poszukiwać rozwiązania każdego z nich. Przykładem zadania, które można zrównoleglić może być budowa rakiety, gdzie za każdy komponent odpowiada grupa wykwalifikowanych inżynierów. W celu podniesienia poziomu inteligencji systemu należy zwiększyć ilość lub jakość podsystemów, które się na niego składają. Inteligencja zbiorowa jest nam bardziej znana z doświadczenia niż inteligencja szybka. O ile nie mamy doświadczeń z systemami na poziomie człowieka, które wyróżniają się wyższą szybkością działania, o tyle mamy masę doświadczeń z inteligencją zbiorową. Systemami złożonymi z różnych składowych, które współpracują ze sobą z rozmaitą skutecznością, są na przykład firmy, zespoły robocze, państwa, a nawet ludzkość ogółem.

 

Superinteligencja jakościowa

Kiedy używamy stwierdzenia “sztuczna inteligencja” to najczęściej mamy na myśli superinteligencję jakościową. Jest to system, który jest przynajmniej równie szybki co umysł ludzi, a przy tym znacznie inteligentniejszy. W tym przypadku znów słowo “znacznie” oznacza kilkadziesiąt, kilkaset, czy nawet kilka milionów razy bardziej inteligentny. Superinteligencja jakościowa jest koncepcją najbardziej mętną z całej trójki, ponieważ do tej pory nie mieliśmy styczności z żadnymi odmianami inteligencji przewyższającymi pod względem jakości intelektualnych umysłów ludzi.

 

Drogi ku superinteligencji

Dziś maszyny z pewnością ustępują ludziom pod względem inteligencji ogólnej, ale jak twierdzi wielu ekspertów, pewnego dnia przekroczą tę granicę i staną się inteligentne. Jednak jak pokonać dystans dzielący nas do tego momentu? Superinteligencja z którejkolwiek opisanych powyżej form mogłaby z czasem opracować sposoby stworzenia dwóch pozostałych form. Wynika z tego, że jeżeli uda się nam stworzyć chociaż jeden z rodzajów superinteligencji, to osiągalność pośrednia pozostałych form jest jednakowa. Pozostaje kwestia osiągalności bezpośredniej, która jest trudna do określenia. Prawdopodobne jest to, że nie można założyć, w jakiej kolejności się one pojawią. W uproszczeniu możemy jednak zakładać, że superinteligencja szybka radzi sobie najlepiej z zadaniami składającymi się z dużej ilości małych kroków, które muszą być wykonane jeden po drugim. Superinteligencja zbiorowa osiąga lepsze wyniki w zadaniach dających się rozłożyć analitycznie do postaci równoległych podzadań. W pewnym sensie superinteligencja jakościowa miałaby największy potencjał ze wszystkich form superinteligencji, ponieważ potrafiłaby analizować i rozwiązywać abstrakcyjne problemy daleko wykraczające poza zasięg inteligencji zbiorowej i szybkiej.

Interfejs mózg-komputer

Interfejs mózg-komputer (ang. Brain-Computer Interface, BCI) to technologia pozwalająca na bezpośrednią komunikację między mózgiem a komputerem. Ludzki mózg mógłby w ten sposób wykorzystać możliwości obliczeniowe komputerów – zwiększenie prędkości wykonywania obliczeń, perfekcyjna pamięć, przesyłanie danych bezpośrednio z komputera do mózgu i znacznie szybsza nauka. Nick Bostrom podchodzi do tej technologii bardziej sceptycznie i nie przewiduję, że zostanie ona spopularyzowana w nadchodzącej przyszłości. Zwraca on uwagę na fakt, że zainstalowanie takiego implantu wymagałoby bezpośredniej ingerencji w tkankę mózgową, co stanowi spore niebezpieczeństwo dla zdrowia człowieka. Interfejs mózg-komputer nie przełamałby również wielu ograniczeń ludzkiego mózgu – nawet w przypadku bezpośredniego przesyłania informacji do mózgu, niezwiększyło by to prędkości, z jaką się uczymy, a tym bardziej, z jaką myślimy – wymagałoby to wymiany całego (a przynajmniej sporej części) ludzkiego mózgu, na jego elektroniczny odpowiednik.

Wiele potencjalnych możliwości oferowanych przez interfejs mózg komputer, została już zrealizowana bez jego wykorzystania. Bezpośrednie połączenie ludzkiego mózgu z siecią internetową wydaje się ciekawe – ale czy jest nam naprawdę potrzebne, w czasach gdy w każdym miejscu na świecie możemy połączyć się z internetem przy pomocy smartfona? BCI mógłby pomóc pacjentom cierpiącym na choroby takie jak Parkinson, ludziom głuchym czy dotkniętym paraliżem. Jednak dla wszystkich tych przypadłości zostały już wytworzone (albo zostaną w przyszłości) specjalne implanty, leki i terapie, których zastosowanie jest znacznie bezpieczniejsze, jak również tańsze w realizacji, niż instalacja wspomnianych interfejsów. Pomimo tych wszystkich wad, interfejsy mózg-komputer wciąż są używane do celów medycznych czy rehabilitacyjnych, jak również naukowych – umożliwiają one lepsze zrozumienie funkcjonowania ludzkiego mózgu, przez co pomagają lepiej zrozumieć choroby psychiczne czy neurologiczne, jak również stanowią krok na drodze do utworzenia emulacji mózgu.

Emulacja mózgu

Whole Brain Emulation (WBE) to hipotetyczny proces, w którym mózg człowieka jest skanowany, a następnie jego stan jest symulowany na komputerze. Nick Bostrom twierdzi, że WBE ma potencjał do rozwiązania wielu problemów moralnych i filozoficznych, takich jak problem śmierci, problem tożsamości i problem odpowiedzialności. Argumentuje on również, że emulacja mózgu umożliwi przyspieszenie postępu naukowego i technologicznego, ponieważ pozwala na lepsze zrozumienie mózgu i na tworzenie bardziej zaawansowanych systemów sztucznej inteligencji. Jednocześnie takie rozwiązanie byłoby przykładem superinteligencji słabej – przewyższała by człowieka głównie szybkością myślenia, a nie możliwościami

Zdaniem Bostroma do przeprowadzenia emulacji mózgu wymagana jest duża znajomość organizacji móżgu – ale tylko podstawowa znajomość funkcjonalności, źródło: Sandberg, A. & Bostrom, N. (2008): Whole Brain Emulation: A Roadmap

Istotnym elementem jest zrozumienie i zmapowanie procesów neuronalnych w mózgu, co jest trudnym i skomplikowanym procesem. Wiele osiągnięć w neuronauce pozwoliło na lepsze zrozumienie struktury i funkcji mózgu, ale jest jeszcze daleko do tego, aby uzyskać pełne zrozumienie procesów mózgu, szczególnie tych związanych ze świadomością. Kolejną kluczową kwestią jest jak skutecznie przenieść dane z mózgu do komputera i to jak skutecznie symulować mózg na komputerze. Obecnie istnieją różne podejścia do WBE, takie jak sieci neuronowe, czy symulacje fizyczne. Pozostają jeszcze pytania natury etycznej – czy sklonowanie czyjegoś móżgu można uznać za moralnie usprawiedliwione, jakie będzie miało to konsekwencje dla ludzkości, i jaki wpływ będzie to miało dla prywatności i praw człowieka. Mimo wszystko ludzkość jest jeszcze bardzo daleka od stworzenia działających symulacji ludzkiego mózgu, a sama idea jest dość abstrakcyjna i nie przez wszystkich uważana za realistyczną.

 

Inteligencja ogólna – AGI

Artificial General Intelligence (AGI) to pojęcie oznaczające sztuczną inteligencję, która posiada zdolności poznawcze i kognitywne podobne do ludzi. AGI jest zdolna do rozwiązywania różnorodnych problemów i zadań, a także do adaptowania się do nowych sytuacji, tak jak człowiek. Różni się od sztucznej inteligencji wąskiej (ANI), która jest specjalizowana w jednej dziedzinie, takiej jak rozpoznawanie mowy lub analiza danych. Wydaje się, że jednym z kroków na drodze do superinteligencji musi być zaprogramowanie inteligencji ogólnej. Na tym etapie stworzony system nie różni się znacząco od ludzkiego mózgu, a więc będzie prostszy do kontrolowania i monitorowania. Nie wiadomo ile będzie trwało przejście od inteligencji ogólnej do superinteligencji, jednak naukowcy spekulują, że AGI mogłaby sama się uczyć i udoskonalać, aby w końcu osiągnąć superinteligencję.

 

Zagrożenia

Jednym z głównych zagrożeń związanych z superinteligencją jest to, że może ona mieć cele, które są sprzeczne z interesami ludzi. Superinteligencja może mieć tendencję do poszukiwania i realizowania swoich własnych celów, które wykraczają poza ludzkie zrozumienie. Rozważmy przypadek, gdzie w miejscu, w którym znajduje się mrowisko chcemy zbudować dom. W konsekwencji niszczymy mrowisko, ale nie dlatego, że żywimy nienawiść do mrówek, ale dlatego, że ich istnienie jest sprzeczne z naszymi interesami. W końcu niezależnie od naszych starań nie jesteśmy w stanie wytłumaczyć mrówkom, że muszą się przenieść, ponieważ mamy w planach zagospodarować wybrany przez nas teren. Podobny los może spotkać nas w przypadku, gdy superinteligencja postanowi realizować swoje własne zamiary.

Kolejnym zagrożeniem jest tzw. “eksplozja inteligencji”. W definicji superinteligencji widzimy, że jest to system, który przewyższa człowieka w każdej dziedzinie nauki. Oznacza to, że również potrafi zaprojektować system inteligentny, który będzie wydajniejszy od zaprojektowanego przez człowieka. W konsekwencji superinteligencja jest w stanie iteratywnie tworzyć coraz inteligentniejsze wersje siebie, co prowadzi do eksplozji inteligencji. Punk w którym stwierdzimy, że mamy styczność z superinteligencją i przestaniemy rozumieć jej zamiary nazywa się momentem odejścia. Nie jest pewne ile ten proces może potrwać. Nick Bostrom proponuje trzy scenariusze. Pierwszy z nich zakłada, że moment odejścia potrwa kilka sekund, drugi kilka godzin, a trzeci miesiące lub lata. Najbardziej korzystnym dla ludzkości wydaje się scenariusz trzeci, gdzie będziemy mieli choć kilka miesięcy aby przygotować się i dostosować do nadchodzącej superinteligencji.

Bezpośrednio z  drugiego zagrożenia wynika kolejne, czyli problem kontroli. Jak mamy kontrolować system, który jest miliony razy mądrzejszy niż cała ludzkość? Rozwiązaniem tego problemu byłoby odizolowanie superinteligencji od świata zewnętrznego i zapewnienie jest komunikacji z ludźmi w ograniczonej formie, np. możliwość odpowiadania na pytania tylko w postaci TAK lub NIE. Jednak taki rodzaj superinteligencji w formie wyroczni nie byłby zadowalający. Kolejnym rozwiązaniem mogłoby być zaszczepienie ludzkich wartości superinteligencji na etapie, kiedy nie przewyższała jeszcze inteligencji ludzkiej. W tym przypadku też pojawia się problem natury filozoficznej: jakie wartości powinniśmy jej przekazać? Dlatego ważne jest, aby rozważyć te problemy już na etapie projektowania i tworzenia superinteligencji i wprowadzić odpowiednie środki bezpieczeństwa, aby zminimalizować ryzyko niekontrolowanego rozwoju i zapewnić, że superinteligencja będzie działać zgodnie z ludzkimi wartościami i celami.

 

Podsumowanie

Superinteligentny system może przynieść wiele korzyści takich jak przyspieszenie postępu technologicznego i rozwiązanie wszelakich problemów ludzkości, jednak zagrożenia związane z jego rozwojem są gigantyczne. Tak jak pokazaliśmy, superinteligencja nie musi wcale być wrogo nastawiona w stosunku do ludzkości, aby wyrządzić nam szkody. Jej działania mogą wykraczać poza nasze zrozumienie i podobnie jak ludzie, którzy niszczą mrowisko, aby zbudować np. drogę, superinteligencja może unicestwić ludzkość w “wyższym” celu. Eksperci i futuryści nie są zgodni, kiedy możemy spodziewać się nadejścia inteligencji ogólnej, a w konsekwencji superinteligencji, ale bezsprzecznie byłby to przełom w historii ludzkości na miarę odkrycia ognia. Jednak pomimo dużej ilości niedopowiedzeń i założeń jedno pozostaje pewne: jeżeli uda nam się stworzyć superinteligencję, to będzie ona ostatnim wynalazkiem ludzkości.

Dla zainteresowanych polecam książkę:

Superinteligencja. Scenariusze, strategie, zagrożenia - Nick Bostrom | Książka w Lubimyczytac.pl - Opinie, oceny, ceny

 

Bibliografia

  • Nick Bostrom – “Superintelligence: Paths, Dangers, Strategies”, 2014.
  • Sandberg, A. & Bostrom, N. (2008): Whole Brain Emulation: A Roadmap, Technical Report #20083, Future of
    Humanity Institute, Oxford University
  • https://www.spiceworks.com/tech/artificial-intelligence/articles/super-artificial-intelligence/
  • https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3497935/
  • https://www.lesswrong.com/posts/ukmDvowTpe2NboAsX/a-visualization-of-nick-bostrom-s-superintelligence

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…