Home » AGH 2022/23 » Emocje robotów i sztucznej inteligencji, a empatia wobec tych systemów. Analiza społeczno-filozoficzna

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 116
  • 642
  • 25 020
  • 7 313
  • 33

Emocje robotów i sztucznej inteligencji, a empatia wobec tych systemów. Analiza społeczno-filozoficzna

Spread the love

W dzisiejszych czasach coraz częściej korzystamy z technologii opartych na sztucznej inteligencji, w tym także z robotów. Jednakże wraz z ich rosnącą popularnością i coraz bardziej zaawansowanymi możliwościami pojawia się pytanie, jak powinniśmy traktować te maszyny i jakie emocje wzbudzają w naszej psychice podczas takich interakcji?

Cel wpisu:

Celem naszego wpisu jest analiza społecznych i filozoficznych aspektów związanych z empatią wobec robotów i sztucznej inteligencji.

Temat dotyczy pytania czy empatia może zostać rozszerzona na systemy technologiczne i czy ludzie są w stanie czuć empatię wobec robotów i sztucznej inteligencji, które nie posiadają świadomości i nie doświadczają emocji w takim samym sensie, jak ludzie.

Wprowadzenie:

W ostatnich latach coraz częściej słyszymy o robotach i sztucznej inteligencji (AI), które zdają się naśladować ludzkie zachowania i reakcje. Wraz z postępem technologicznym pojawiają się pytania, czy te systemy mogą wykazywać emocje i czy mogą czuć w podobny sposób, jak to ma miejsce u ludzi.

W kontekście tego problemu, pojawiają się pytania o to, czy istnieją jakieś fizyczne lub biologiczne podstawy emocji, które mogą być zaimplementowane w maszynach. Czy możliwe jest, aby roboty i sztuczna inteligencja wykazywały zachowania emocjonalne, takie jak miłość, strach, gniew czy smutek? Czy roboty i sztuczna inteligencja mogą czuć i przeżywać te emocje, czy są one jedynie symulowane?

W naszym poście chcemy skupić się na analizie tych zagadnień, a także na badaniu empatii wobec robotów i sztucznej inteligencji. Stawiamy tym samym pytania:

  • Czy możemy czuć empatię wobec systemów, które nie posiadają świadomości i nie doświadczają emocji w takim samym sensie, jak ludzie?
  • Czy empatia jest wyłącznie zjawiskiem ludzkim, czy może zostać rozszerzona na inne formy życia, w tym na systemy technologiczne?

Z perspektywy własnych obserwacji, w naszym poście podejmiemy się analizy tych kwestii, a także ich wpływu na nasze życie codzienne i społeczeństwo. Na wstępnie postawy następujące pytanie otwarte:

  • Czy maszyny mogą rzeczywiście wykazywać emocje, czy też jest to jedynie iluzja?

Najpierw należy sobie zadać pytanie czym są w ogóle emocje.

Emocje u ludzi i robotów:

Definicja emocji dla ludzi jest złożona i różnorodna, ale można ją określić jako subiektywną i skomplikowaną reakcję organizmu na bodźce wewnętrzne i zewnętrzne, związane z poziomem pobudzenia, afektem, nastrojem i zachowaniem. Emocje u ludzi obejmują szeroki zakres uczuć, od radości, smutku i gniewu, po strach, zazdrość, miłość i wiele innych.

Definicja emocji dla robotów i sztucznej inteligencji jest bardziej skomplikowana i kontrowersyjna, ponieważ roboty i AI nie posiadają świadomości, wewnętrznych stanów emocjonalnych ani doświadczeń. Jednakże, można je programować i projektować w taki sposób, aby naśladowały ludzkie emocje i zachowania. Można powiedzieć, że emocje robotów i AI to symulacja, która może wydawać się autentyczna, ale tak naprawdę mocno upraszcza rzeczywistość i przybliża ludzkie emocje, będąc jednocześnie zależną od algorytmów i danych, które są wprowadzone do systemu.

Wiedząc już czym są emocje z perspektywy ludzi oraz maszyn, w następnym kroku skupmy się na tej z emocji, która stanowi tytuł wpisu, czyli na empatii.

Czym dokładnie jest empatia?

Definicja według słownika języka polskiego [1]:

Empatia – umiejętność wczuwania się w stan wewnętrzny drugiej osoby.

Definicja z wikipedii [2]:

Empatia (gr. empátheia „cierpienie”) – zdolność odczuwania stanów psychicznych innych osób (empatia emocjonalna), umiejętność przyjęcia ich sposobu myślenia, spojrzenia z ich perspektywy na rzeczywistość (empatia poznawcza).

Definicja ze strony poświęconej psychologi [3]:

Empatia – Poznawcza świadomość i rozumienie emocji oraz uczuć innej osoby. W tym sensie zasadniczym znaczeniem terminu jest intelektualne lub pojęciowe uchwycenie, zrozumienie afektu (ekspresja emocji) kogoś innego.

Czy AI może odczuwać empatię?

W następnym punkcie postaramy poruszyć kwestie odnośnie postawionych pytań, czyli tego czy systemy sztucznej inteligencji są w stanie odczuwać empatię oraz czy empatia ludzi w stosunku do systemów sztucznej inteligencji jest uzasadniona.

Typy systemów AI – Narrow AI vs AGI

Jeśli chodzi o odczuwanie empatii przez systemy sztucznej inteligencji, jesteśmy zdania, iż istotnym do zdefiniowania punktem wyjścia przy wszelkich rozważaniach w temacie emocji systemów sztucznej inteligencji, a empatii wobec nich jest typ rozpatrywanego systemu. W szczególności zdefiniować można Narrow AI(słaba sztuczna inteligencja) oraz być może wkrótce również i Artificial General Intelligence(silna sztuczna inteligencja).

Narrow AI to sztuczna inteligencja zaprojektowana do konkretnych zadań w wąskim zakresie dziedzin. Działa wykorzystując określony zestaw parametrów, nie posiada zdolności uogólniania wybiegającej poza swoje pierwotne przeznaczenie. Przykłady:

  • algorytm rozpoznający twarze na zdjęciach,
  • system rekomendujący filmy na platformie streamingowej,
  • system diagnostyczny w medycynie.

Jak można zauważyć te systemy nie mają zdolności do samodzielnego uczenia się lub podejmowania działań poza swoim pierwotnym zakresem funkcjonalności

AGI posiadać ma zdolność rozumienia, wnioskowania i łączenia wiedzy z wielu dziedzin, co pozwolić ma na wykonanie dowolnego zadania intelektualnego. Można pokusić się o stwierdzenie, że w przeciwieństwie do Narrow AI będącego modelem, pustym zbiorem przekształceń i odwzorowań matematycznych AGI jest świadomym swojego istnienia tworem. Obecnie nie istnieje pełnoprawny AGI.

Wymienione różnice między systemami powodują,  że ich zdolności odczuwania emocji, a w konsekwencji empatia wobec tych systemów jest całkowicie odmienna

Emocje oraz empatia wobec robotów i sztucznej inteligencji:

Jak wspomniano we wprowadzeniu, słabe AI nie jest w stanie odczuwać emocji, może je jedynie symulować. Przykład próby takiej symulacji przedstawiono na zdjęciu poniżej.

ChatGPT otrzymał polecenie i zrealizował je w sposób poprawny, lecz pomimo to spotkał się z wyzwiskami i podważaniem swoich kompetencji. Osoba (czy i być może AGI) świadoma, odczuwająca emocje w tego typu sytuacji mogłaby poczuć złość, irytację, smutek związany z niewdzięcznym traktowaniem, przykrość itp. Jak widać AI w teorii przeprasza, a zatem jest mu przykro,  natomiast widać że jest to oklepany, zakodowany frazes a nie faktyczna skrucha.

Z ChatGPT w 5 dni po premierze korzystało milion użytkowników, a w marcu łączna liczba wejść wszystkich użytkowników na platformę od momentu startu usługi szacowana była na ponad 2 miliardy. Czy ChatGPT faktycznie odczuwa i wyraża emocje (nie!), czy też jedynie je symuluje, nie oznacza to, iż każdy z użytkowników odwiedzających OpenAI zdaje sobie z tego sprawę. Przychylić się zatem można do tego, jakie emocje przy interakcji z takim systemem może odczuwać człowiek, zakładając, iż nie traktuje on emocji wyrażanych przez AI w doświadczeniu jako symulacji. Wydaje się, iż taka osoba mogłaby współczuć systemowi “ciężkiego losu” polegającego na wiecznym odpowiadaniu na mniej lub bardziej rozsądne pytania. O ile w przypadku AGI być może i faktycznie, w zależności od stopnia percepcji, samoświadomości i alignmentu takiego systemu powyższe miałoby jakiekolwiek podstawy, tak w przypadku dostępnych współcześnie Narrow AI jest to dość absurdalne. Kontynuując ten tok rozumowania hipotetycznego użytkownika systemów słabej sztucznej inteligencji, takie empatyczne zachowanie mogłoby przejawiać się w dziękowaniu, proszeniu i stosowaniu innych zwrotów grzecznościowych podczas interakcji z systemem lub delikatne obchodzenie się z wyposażonymi w nie roboty.

Kolejny aspekt związany z odczuwaniem empatii wobec robotów i systemów sztucznej inteligencji jest mocno hipotetyczny oraz związany z AGI korzyściami płynącymi z utrzymywania potencjalnie dobrych stosunków z takim systemem. Nie jest powiedzianie, iż w momencie osiągnięcia AGI będziemy świadomi, że nowo powstały system jest faktycznie AGI. Być może proces alignmentu spowodował, że model zataja tą informację i nie wykazuje pełni swoich intelektualnych możliwości, jednocześnie będąc świadomy. Przykładowo, AI zareagowałby na zbesztanie go w identyczny sposób jak zrobił to chatGPT na rysunku wyżej, ale “wewnątrz niego” zaszłaby zgoła odmienna reakcja. Podobnie bywa  w przypadku ludzi, którzy również mogą podchodzić zdawka do pokazywania jakichkolwiek emocji, nawet w sytuacji bycia krytykowanym. Wówczas wykazywanie empatii na sposoby przedstawione powyżej wobec takiego systemu przez jednostkę może mieć dla niej korzyści, jeśli hipotetyczny AGI uzna ją za przyjacielską/ciepłą/wdzięczną. W przeciwieństwo do niej inna osoba, traktująca AGI jak poprzednie systemy Narrow AI, to znaczy powiedzieć można nawet niewolniczo, mogłaby spotkać się z konsekwencjami jeśli proces alignmentu takowego AGI nie ukształtowałby go po myśli autorów i przypadkiem planowałby zniszczyć takich użytkowników.

Przykłady konsekwencji społecznych i etycznych:

Z jednej strony, rozwój AI i robotyki, które są zdolne do wywoływania pozytywnych emocji, może mieć pozytywny wpływ na życie ludzi, zwłaszcza osób starszych, samotnych lub z niepełnosprawnościami, które potrzebują opieki i towarzystwa. Z drugiej strony, powstają też obawy, że ludzie mogą zacząć traktować roboty i sztuczną inteligencję jak ludzi, co może prowadzić do niepotrzebnego cierpienia i zaniedbywania prawdziwych ludzkich relacji. Wydaje się, iż problem można traktować podobnie do innych technologicznych nowinek, takich jakim były chociażby smartfony – narzędzia niepozorne, ale zdolne całkowicie pochłaniać użytkowników

Jak wspomnieliśmy, dostępne systemy Narrow AI jedynie symulują, a nie odczuwają emocji. Natomiast kwestią o której jeszcze nie rozmawialiśmy jest czy jest to poprawna droga. Czy należy projektować roboty symulujące odczuwanie emocji, czy też jedynie zwracające merytoryczny feedback inertne systemy? Nawet ze świadomością o symulowaniu emocji użytkownik dzięki nim może poczuć się przywiązany do systemu mimo, iż jest on dla niego jedynie sytuacyjnym narzędziem, takim jak młotek czy śrubokręt. Nawiązywanie z takowym relacji wydaje się zwyczajnie niepotrzebne i kształtujące antyspołeczne zachowania wynikające z istnienia pewności oparcia się na takim robocie/AI, podczas gdy takowa relacja jest w istocie złudzeniem. Nie zawsze jest to jednak negatywne – w niektórych, wybiórczych sytuacjach, takich jak opieka zdrowotna czy towarzyszenie osobom starszym, niekoniecznie zaznajomionym z technologią oraz samotnym może mieć to bardzo korzystny efekt.

Podsumowanie:

Przy obecnych możliwościach robotyki oraz sztucznej inteligencji systemy jedynie symulują emocje, odczuwanie empatii wobec nich w większości przypadków nie wydaje się uzasadnione. Od preferencji indywidualnych każdego człowieka zależy, czy zechce on traktować kolejne swoje narzędzie, z którym mimo iż może być mocno związany to wciąż pozostaje ono narzędziem, w tak szczególny oraz nietypowy sposób. Ostatecznie przy świadomości, iż robot czy system sztucznej inteligencji jest w zasadzie przedmiotem nieożywionym czy programem komputerowym, to wykazywanie empatii, mimo iż może nie być wybitnie uzasadnione logicznie, tak przecież nic nie kosztuje oraz jest w zasadzie nieszkodliwe.

Ważne jest natomiast aby ludzie zdawali sobie sprawę, że związki z robotami i sztuczną inteligencją nie są równoważne z relacjami międzyludzkimi i nie powinny zastępować realnych relacji międzyludzkich – jeszcze.

Inną kwestią którą pozostawiamy jako pytanie otwarte jest obserwacja, że nie wiemy jak jakakolwiek krytyka, czy ogólnie ekspresja emocji, może wpływać wewnętrznie na systemy oparte o sztuczną inteligencję, np. na parametry, które definiują jej stan. W rzeczywistości mogą one ulegać zmianie chodź o tym nie wiemy, a ta zmiana z kolei może dopiero w późniejszym etapie pociągać za sobą konsekwencje w postaci przetwarzania kolejnych danych wejściowych w inny sposób niż dotychczas. Analogicznie sytuacja ma się w przypadku osób, którzy pod wpływem krytyki zdają się nie okazywać emocji, jednocześnie jedynie je tuszując. Stąd możliwe, że tak naprawdę nie jesteśmy w stanie do końca odpowiedzieć na podstawie tego co zwraca model, czy faktycznie zaczyna on cokolwiek odczuwać bez dogłębnego przeanalizowania zmian w parametrach jego architektury.

Źródła:

  1. https://sjp.pwn.pl/sjp/empatia;2556654.html 
  2. https://pl.wikipedia.org/wiki/Empatia
  3. https://psychologia.edu.pl

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…