Home » UJ 2022/23 » Filozoficzne i społeczne aspekty emocjonalnej sztucznej inteligencji

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 42

Filozoficzne i społeczne aspekty emocjonalnej sztucznej inteligencji

Spread the love

Sztuczna inteligencja, pomimo dynamicznego rozwoju, jest wciąż daleka od prawdziwej symulacji inteligencji ludzkiej. Dzieje się to za sprawą, nie tylko ograniczeń technicznych, ale również niedoskonałości teoretycznych aspektów, na których prawdziwie zrealizowana (silna) sztuczna inteligencja miałaby się opierać. Jednym z takich aspektów są właśnie emocje. W przeszłości były one często stawiane w opozycji do intelektu, jednak dzisiejsi badacze zdają się doceniać wpływ ich komponentów na myślenie. Czy jednak sztuczna inteligencja potrzebuje emocji?

Sztuczna inteligencja odgrywa coraz ważniejszą rolę w naszym codziennym życiu. Od asystentów głosowych, chatbotów po roboty terapeutyczne i samochody autonomiczne. W ostatnich latach coraz częściej pojawia się pytanie o to czy sztuczna inteligencja, która jest w stanie wykonywać tak wiele różnych i ważnych zadań, również potrzebuje emocji. Jest to interesujące zagadnienie, ze względu na to jak ważną rolę odgrywają w naszym życiu emocje, a ich brak prowadzi do problemów natury emocjonalnej i społecznej. Aby móc rozpocząć jakąkolwiek dyskusję na ten temat, musimy ustalić czym w ogóle są emocje oraz jaki jest cel ich posiadania. Współcześnie temat emocji jest rozpatrywany przez wiele dziedzin naukowych. Przyjrzyjmy się więc emocjom z różnych perspektyw.

Perspektywa chemiczno-neurologiczna

Emocje są reakcjami na bodźce zewnętrzne, które są wywoływane przez zmiany w mózgu i układzie hormonalnym mózgu. Kiedy doświadczamy emocji mózg wytwarza różne substancje chemiczne zwane neuroprzekaźnikami, odpowiedzialne za regulację naszych emocji i zachowań. Gdy doświadczamy strachu lub niepokoju, nasz mózg wytwarza adrenalinę, ta z kolei pobudza nasz układ nerwowy i przygotowuje nas do walki lub ucieczki. Natomiast gdy doświadczamy radości lub euforii, nasz mózg wytwarza dopaminę, która wpływa pozytywnie na nasze zachowanie i nastrój.  Emocje są również związane z naszym układem hormonalnym i są regulowane przez różne hormony, takie jak serotonina, oksytocyna i kortyzol. Te hormony również wpływają na nasze emocje, nastrój i zachowanie.

Perspektywa biologiczna (ewolucyjna)

Prekursorem ewolucyjnego podejścia do emocji był Karol Darwin, który w swojej pracy „Wyraz uczuć u człowieka i zwierząt” opisał wiele różnych emocji, takich jak strach, gniew, radość i smutek. Opisał on emocje jako mechanizmy ewolucyjne, które są wrodzonymi instynktami pomagającymi organizmowi przystosować się do otoczenia, przetrwać oraz rozmnażać się. Darwin uważał, że emocje są uniwersalne i występują u wszystkich ludzi niezależnie od kultury co wskazuje na ich podstawową rolę w ludzkim zachowaniu. Podkreślał również, że emocje są ważnym elementem ludzkiej komunikacji i wpływają na nasze decyzje i zachowania.

Z punktu widzenia biologicznego emocje są odpowiedzią naszego organizmu na bodźce zewnętrzne lub wewnętrzne. Są one wywoływane przez hormony i neuroprzekaźniki, takie jak adrenalina i noradrenalina, które są uwalniane przez układ hormonalny w odpowiedzi na stresujące sytuacje. Dodatkowo emocje mogą wpływać na nasze zdrowie psychiczne i fizyczne.

Perspektywa psychologiczna

Emocje są subiektywnymi doświadczeniami, związanymi z naszymi myślami, uczuciami i reakcjami na różne sytuacje. Psychologowie zajmują się badaniem samych emocji oraz ich roli w naszym życiu ze względu na to, że mogą mieć duży wpływ na nasze zachowanie podejmowane przez nas decyzje. Emocje są definiowane jako stany emocjonalne, wywoływane przez różne bodźce, natomiast charakteryzowane są przez specyficzne zmiany w naszym nastroju, myślach, uczuciach i zachowaniu.

Perspektywa kulturowa

Emocje są sposobem, w jaki ludzie reagują na różne sytuacje i doświadczenia w swoich kulturach i społeczeństwach. Różne kultury różnią się tym, w jaki sposób ludzie wyrażają emocje oraz jak sobie z nimi radzą, a także w sposobach w jaki emocje są postrzegane i oceniane. W niektórych kulturach wyrażanie emocji publicznie jest uważane za normalne i całkowicie akceptowalne, podczas gdy w innych kulturach może być postrzegane jako nieodpowiednie lub niegrzeczne. Badania nad emocjami z perspektywy kulturowej pomagają nam lepiej zrozumieć, jak nasze kultura i społeczeństwo wpływa na nasze emocje i sposoby radzenia sobie z nimi.

Zagadnienie, które powtarza się w każdej opisanej powyżej perspektywie, to przekonanie badaczy na temat tego, że emocje mają wpływ na nasze zachowanie oraz na podejmowane przez nas decyzje.

 

Implementacja wymuszająca pytania natury filozoficznej 

Implementacja emocjonalnego komponentu w środowisko elektroniczne wymusza klarowne zdefiniowanie natury struktury, aspektów oraz funkcji emocji. Jednak samo pojmowanie emocji (jak ukazano wyżej) nie jest jednoznaczne. Nawet po zdefiniowaniu i wyjaśnieniu zjawiska przed inżynierami sztucznej inteligencji stają niemałe problemy. Emocje zdają się być nierozerwalnie związane z tym, co w ludzkiej psychice nieświadome. Jak więc możemy je odwzorować w maszynach? Niezbędna wydaję się reprodukcja wyższego systemu nerwowego, od czego jednak jesteśmy daleko (tym samym daleko od problemów natury filozoficznej, które przyniesie). Przeszkodą w implementacji jest również cielesność emocji, nieograniczonych jedynie do aktywności mózgowej. Brak ludzkiego ciała wnosi do sztucznej inteligencji inną perspektywę postrzegania rzeczywistości, a więc czy nasze mechanizmy emocjonalne są możliwe do sensownego przeniesienia w środowisko maszyny?

Problem replikacji sfery emocjonalnej w AI łączy się z filozoficznym problemem qualiów. Qualia są subiektywnym doświadczeniem osoby, na indywidualnym poziomie, związanym z jej osobistym światopoglądem. Subiektywne doświadczenia są trudne w przekazaniu innej osobie, a nawet w wykryciu. Problem Qualiów jest jednak kwestią kontrowersyjną. Tacy filozofowie jak D. Dennett czy P. Churchland uznają qualia nie jako „prawdziwy” fenomen, a manifestacje folk psychology. Niezaprzeczalne jest jednak, iż emocje są powiązane z personalnym nastawieniem wobec otaczającego świata.

Ogólne manifestacje emocji są takie same, ale czy jeśli chodzi o ich subiektywne odczucie sprawa tak wygląda? Wydaje się, że ich natężenie i dynamika pozostają indywidualną kwestią. Skoro subiektywność doświadczeń pozostaje nierozstrzygalna, w jaki sposób możemy mówić o replikacji sfery odczuć w sztucznych agentach?

‘Machines already have some mechanisms that implement (in part) the functions implemented by the human emotional system… But computers do not have human-like emotions in any rich or experiential natural sense… Computers may have mechanisms that imitate some of ours, but this is only in part, especially because our bodies differ and because so little is known about human emotions’ (Picard 2003: 213–235)

 

 

Obiecująca skuteczność emocjonalnych robotów

Ryan, robot społeczny DreamFace Technologies, stworzony w celu dotrzymywania towarzystwa osobom starszym zmagającym się z demencja i depresją, stanowi przykład pozytywnych efektów robotów zaopatrzonych w komponenty emocjonalne. Robot wykorzystuje multimodale rozpoznawanie emocji oraz system dialogu oparty o wcześniej napisane konwersacje między innymi w tematyce nauki, historii, muzyki, filmów czy literatury. Na podstawie rozpoznanej ekspresji emocjonalnej oraz analizy językowej Ryan wydaje się sympatyzować z rozmówca poprzez adekwatną konwersacje i odzwierciedlenia mimiki użytkownika.

Przeprowadzano badanie [1] wykorzystujące dwie wersje robota społecznego Ryan, jedna „empatyczna” i druga „nieempatyczna”.  10 seniorów z podejrzeniem Alzheimera, zamieszkujących Eaton Senior Communities w Lakewood, rozmawiało z robotem dwa razy w tygodniu przez okres 3 tygodni.  Wyniki zebrano na podstawie ilości słów, procentu pozytywnych odbieranych pozytywnych emocji, miary depresji przed i po badaniu oraz wywiadu z uczestnikami i ich opiekunami. Okazało się, że interakcja z obiema wersjami skutkowała w poprawie stanu seniorów, jednak „empatyczny” Ryan wydaje się być bardziej angażujący i wzbudzający sympatię. Z uwagi, że jedyną różnicą były emocjonalne aspekty, badanie stanowi silną sugestię, iż „empatyczne roboty” mają potencjał do dłuższego i przyjemniejszego użycia w celu poprawy jakości życia.

 

Jednak Ryan nie jest jedynym przykładem wskazującym na potencjalnie duże korzyści wykorzystania emocjonalnej sztucznej inteligencji. Metaanaliza 13 artykułów, przeprowadzona przez naukowców z Griffith University [6], wskazuje na potencjał tej technologi w obszarach niepokoju, lęku, zażywania leków, a przede wszystkim jakości życia osób starszych. Analizowane badania, sugerujące pozytywne skutki zastosowania robotów społecznych zaopatrzonych w komponenty emocjonalne, dotyczyły takich agentów jak: roboty astystujące, roboty terapeutyczne i roboty dotrzymujące towarzystwa; jednymi z bardziej znanych robotów były: PARO seal, robotyczny pies AIBO, humanoidalny NAO oraz IrobiQ.

Ale czy powinniśmy? 

Główną zaleta emocjonalnej sztucznej inteligencji jest ulepszanie relacji człowiek-maszyna, pomniejszając ludzki strach czy dyskomfort, a przede wszystkim umilając i zachęcając do interakcji z robotem, co prowadzi do wyższej produktywności. Otwiera to wiele możliwości wykorzystania sztucznej inteligencji w obszarach, w których inteligencja emocjonalna jest niesamowicie istotnym aspektem, np. w psychoterapii czy asyście seniorom. Jednak wprowadzenie takich systemów może spotkać się z krytyczną intuicją. Czy większe przywiązanie do maszyny jest problematyczne? Czy silniejsze emocje w stosunku do sztucznego agenta nieuchronnie niosą ze sobą negatywne skutki nie tylko dla przywiązanego osobnika ale również całego społeczeństwa? Czy rozwinięte pod względem sfery uczuciowej maszyny zastąpią ludzi?

Eva Weber‑Guskar pozostaje sceptyczna wobec tych obaw i w swoim artykule z 2021 roku [8] odpowiada na najpopularniejsze argumenty przeciwko rozpowszechnieniu takich maszyn.

  • Czy aby rozwinąć emocjonalną relację z maszyną użytkownik nie musi być przekonany o posiadaniu przez nią emocji?

Czy to w wyniku przekonania samooszukiwania, czy to w wyniku zmylenia przez innych, przekonanie, iż sztuczny agent posiada emocje zdaje się odgrywać ważną rolę w przywiązaniu do niego. Ponieważ wiara w nieprawdę, czy oszustwo, jest z natury zła, a więc taka relacja też musi być? Weber-Guskar jednak uważa, że uformowane przywiązania nie musi być zależne od tego rodzaju ułudy. Użytkownik technologii może jedynie wyobrażać sobie iż maszyna ma emocje, w podobny sposób jak działa wyobraźnia podczas czytania książki czy oglądania angażującego filmu. Cała przyjemność z takiej aktywności polega na sztucznym, chwilowym zaangażowniu, udawaniu, iż coś jest prawdą. Ale czy w przypadku długoterminowego zastosowania, do którego w domyśle mają być przeznaczone emocjonalne roboty, granica pomiędzy wyobraźnią, a wiarą nie zostanie zatarta?

  • Czy jednostronność relacji z maszyną z natury nie przekreśla dla niej tytułu dobrej relacji?

Za tym argumentem stoi idea, że tylko obustronne relacje zasługują na pozytywną ocenę, odrzucają ją, pozbywamy się tej przeszkody. Niewątpliwe jest, że w relacjach partnerskich niemożliwość  odczuwania przez drugą stronę tego samego lub nawet niemożliwość odczuwania czegokolwiek, staje się prawdopodobnie niemożliwą do przekroczenia przeszkodą. Jednak czy relacja człowiek-maszyna jest tym samym typem relacji? Czy nie przypomina bardziej pozytywnych odczuć do ulubionej roślinki czy pupila? Nie jest nam miło bo maszyna jest szczęśliwa, jest nam miło bo np. wykonuje specyficzne ruchy czy jej animowana twarz się uśmiecha. Jednostronność sama w sobie nie powinna być powodem przekreślenia relacji.

  • Czy afektywne relacje z robotami nie poskutkują zmianą hierarchii wartości człowieka?

Robot jest w końcu rzeczą, czy emocjonalne przywiązanie nie wprowadza niebezpieczeństwa traktowania rzeczy na równi, albo nawet wyżej od człowieka? Zdaniem autorki korzystne byłoby rozważenie, czy hierarchia z człowiekiem na szczycie, a rzeczami na dole, jest zawsze aplikowalna. A taka sytuacja jej zdaniem staje się problematyczna tylko w skrajnych przypadkach. Ale czy na pewo?

  •  Czy zaangażowanie uczuciowe w przedmiot nie prowadzi do wykorzystywania limitowanych zasobów?

Nie jest tajemnicą, że pozytywne uczucia i ich ekspresja wymaga zaangażowania energetycznego i poświęcenia czasu. Czy w takim razie emocjonalne przywiązanie do maszyny nie odbiera tych zasobów relacjom ludzkim? To może być prawda jednak ciężko jest wykłócać się o moralny obowiązek uczuć czy miłości do ludzi. Wszakże oczywistym wydaję się, że „miłość” do robota nie zabrania miłości do innych osób.

 

Strach przed emocjonalną Sztuczną inteligencją

Wraz ze zmniejszającą się różnicą pomiędzy ludzką a sztuczną inteligencją, to co jeszcze odróżnia ludzkie umysły od maszyn to według większości społeczeństwa – emocje – komputery mogą kiedyś być w stanie myśleć jak ludzie, ale nigdy nie będą mogły czuć jak ludzie. Emocje powinny pozostać wyłącznie ludzką domeną, a próby zmiany tego stanu rzeczy wydają się budzić fundamentalny strach, jaki mamy przed istotami, które zachowują się jak my, ale nami nie są.

Para badaczy z University of North Carolina, Chapel Hill w badaniu z 2012 roku stwierdziła, że system komputerowy, który po prostu wydawał się mieć uczucia, nie wykazując żadnych innych możliwych do zidentyfikowania cech ludzkich, był wystarczający, by sprawić, że użytkownicy poczuli się nieswojo. O ile koncepcja myślącego, czującego programu A.I. jest wciąż w elektronicznym powijaku, to pomysł jest już na tyle wiarygodny, że ludzie traktują go poważnie.

Według Jana Philippa Steina – psychologa społecznego, jest w tym coś więcej niż tylko ogólny niepokój wokół nieznanego: “Moja obecna teoria jest taka, że duża część obserwowanej nieufności odnosi się do bardzo podstawowego postrzegania zagrożenia” – powiedział. “Każda wskazówka, która sprawia, że ludzie wątpią w swoją dominację nad technologicznym tworem, a także we własną wyjątkowość w jego obliczu, wpędzi jednostkę bezpośrednio w niesamowitą dolinę umysłu”

“Podobnie jak zaobserwowano w przypadku tradycyjnej ‘doliny niesamowitości’, przypuszczam, że będziemy świadkami silnych efektów habituacji, w miarę jak ludzie będą coraz bardziej przyzwyczajeni do wyrafinowanych technologii A.I. – sieci neuronowych, big data i deep learning – w ich codziennym życiu” – powiedział Stein.

“Nie śmiałbym zakładać, że A.I. jest z natury ‘skazane na zagładę'”

Obawiamy się robotów, które mogą się uczyć i doskonalić, ponieważ zakładamy, że będą zachowywać się tak jak ludzie. Jak dotąd, inżynierom nie udało się stworzyć sztucznej inteligencji zdolnej do emulowania pełnego zakresu ludzkich emocji. Pewnego dnia coś takiego powstanie, choćby po to, by zaspokoić naszą ciekawość.

 

Literatura:

  1. Abdollahi, H., Mahoor, M.H., Zandie, R., Siewierski, J., & Qualls, S.H. (2022). Artificial Emotional Intelligence in Socially Assistive Robots for Older Adults: A Pilot Study.
  2. Chursinova, O., & Stebelska, O. (2021). Is the Realization of the Emotional Artificial Intelligence Possible? Philosophical and Methodological Analysis. Filosofija-sociologija, 32.
  3. Darwin, K. (1872). Wyraz uczuć u człowieka i zwierząt. Londyn.
  4. Hohol, M. Emocje: Biologia czy Kultura?: https://www.wielkiepytania.pl/article/emocje-biologia-czy-kultura/
  5. Madaliński, M. (2004). Mózg i nasze uczucia. Świat problemów.
  6. Pu, L., Moyle, W., Jones, C., & Todorovic, M. (2018). The Effectiveness of Social Robots for Older Adults: A Systematic Review and Meta-Analysis of Randomized Controlled Studies. The Gerontologist.
  7. Rochon, S. (2019). Artificial Intelligences Have Emotions: https://becominghuman.ai/artificial-intelligences-have-emotions-659cb09cdc61
  8. Weber-Guskar, E. (2021) How to feel about emotionalized artificial intelligence? When robot pets, holograms, and chatbots become affective partners. Ethics Inf Technol 23, 601–610
  9. Wilkins, A. (2017). Why Humans Are So Terrified Of Robots With Feelings: https://www.vocativ.com/425139/we-are-scared-of-robots-with-emotions/index.html

 


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…