Home » AGH 2022/23 » Emocje robotów i sztucznej inteligencji, a empatia wobec tych systemów. Analiza społeczno-filozoficzna

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 488
  • 6 591
  • 37 173
  • 12 249
  • 39

Emocje robotów i sztucznej inteligencji, a empatia wobec tych systemów. Analiza społeczno-filozoficzna

Spread the love

W dzisiejszych czasach coraz częściej korzystamy z technologii opartych na sztucznej inteligencji, w tym także z robotów. Jednakże wraz z ich rosnącą popularnością i coraz bardziej zaawansowanymi możliwościami pojawia się pytanie, jak powinniśmy traktować te maszyny i jakie emocje wzbudzają w naszej psychice podczas takich interakcji?

Cel wpisu:

Celem naszego wpisu jest analiza społecznych i filozoficznych aspektów związanych z empatią wobec robotów i sztucznej inteligencji.

Temat dotyczy pytania czy empatia może zostać rozszerzona na systemy technologiczne i czy ludzie są w stanie czuć empatię wobec robotów i sztucznej inteligencji, które nie posiadają świadomości i nie doświadczają emocji w takim samym sensie, jak ludzie.

Wprowadzenie:

W ostatnich latach coraz częściej słyszymy o robotach i sztucznej inteligencji (AI), które zdają się naśladować ludzkie zachowania i reakcje. Wraz z postępem technologicznym pojawiają się pytania, czy te systemy mogą wykazywać emocje i czy mogą czuć w podobny sposób, jak to ma miejsce u ludzi.

W kontekście tego problemu, pojawiają się pytania o to, czy istnieją jakieś fizyczne lub biologiczne podstawy emocji, które mogą być zaimplementowane w maszynach. Czy możliwe jest, aby roboty i sztuczna inteligencja wykazywały zachowania emocjonalne, takie jak miłość, strach, gniew czy smutek? Czy roboty i sztuczna inteligencja mogą czuć i przeżywać te emocje, czy są one jedynie symulowane?

W naszym poście chcemy skupić się na analizie tych zagadnień, a także na badaniu empatii wobec robotów i sztucznej inteligencji. Stawiamy tym samym pytania:

  • Czy możemy czuć empatię wobec systemów, które nie posiadają świadomości i nie doświadczają emocji w takim samym sensie, jak ludzie?
  • Czy empatia jest wyłącznie zjawiskiem ludzkim, czy może zostać rozszerzona na inne formy życia, w tym na systemy technologiczne?

Z perspektywy własnych obserwacji, w naszym poście podejmiemy się analizy tych kwestii, a także ich wpływu na nasze życie codzienne i społeczeństwo. Na wstępnie postawy następujące pytanie otwarte:

  • Czy maszyny mogą rzeczywiście wykazywać emocje, czy też jest to jedynie iluzja?

Najpierw należy sobie zadać pytanie czym są w ogóle emocje.

Emocje u ludzi i robotów:

Definicja emocji dla ludzi jest złożona i różnorodna, ale można ją określić jako subiektywną i skomplikowaną reakcję organizmu na bodźce wewnętrzne i zewnętrzne, związane z poziomem pobudzenia, afektem, nastrojem i zachowaniem. Emocje u ludzi obejmują szeroki zakres uczuć, od radości, smutku i gniewu, po strach, zazdrość, miłość i wiele innych.

Definicja emocji dla robotów i sztucznej inteligencji jest bardziej skomplikowana i kontrowersyjna, ponieważ roboty i AI nie posiadają świadomości, wewnętrznych stanów emocjonalnych ani doświadczeń. Jednakże, można je programować i projektować w taki sposób, aby naśladowały ludzkie emocje i zachowania. Można powiedzieć, że emocje robotów i AI to symulacja, która może wydawać się autentyczna, ale tak naprawdę mocno upraszcza rzeczywistość i przybliża ludzkie emocje, będąc jednocześnie zależną od algorytmów i danych, które są wprowadzone do systemu.

Wiedząc już czym są emocje z perspektywy ludzi oraz maszyn, w następnym kroku skupmy się na tej z emocji, która stanowi tytuł wpisu, czyli na empatii.

Czym dokładnie jest empatia?

Definicja według słownika języka polskiego [1]:

Empatia – umiejętność wczuwania się w stan wewnętrzny drugiej osoby.

Definicja z wikipedii [2]:

Empatia (gr. empátheia „cierpienie”) – zdolność odczuwania stanów psychicznych innych osób (empatia emocjonalna), umiejętność przyjęcia ich sposobu myślenia, spojrzenia z ich perspektywy na rzeczywistość (empatia poznawcza).

Definicja ze strony poświęconej psychologi [3]:

Empatia – Poznawcza świadomość i rozumienie emocji oraz uczuć innej osoby. W tym sensie zasadniczym znaczeniem terminu jest intelektualne lub pojęciowe uchwycenie, zrozumienie afektu (ekspresja emocji) kogoś innego.

Czy AI może odczuwać empatię?

W następnym punkcie postaramy poruszyć kwestie odnośnie postawionych pytań, czyli tego czy systemy sztucznej inteligencji są w stanie odczuwać empatię oraz czy empatia ludzi w stosunku do systemów sztucznej inteligencji jest uzasadniona.

Typy systemów AI – Narrow AI vs AGI

Jeśli chodzi o odczuwanie empatii przez systemy sztucznej inteligencji, jesteśmy zdania, iż istotnym do zdefiniowania punktem wyjścia przy wszelkich rozważaniach w temacie emocji systemów sztucznej inteligencji, a empatii wobec nich jest typ rozpatrywanego systemu. W szczególności zdefiniować można Narrow AI(słaba sztuczna inteligencja) oraz być może wkrótce również i Artificial General Intelligence(silna sztuczna inteligencja).

Narrow AI to sztuczna inteligencja zaprojektowana do konkretnych zadań w wąskim zakresie dziedzin. Działa wykorzystując określony zestaw parametrów, nie posiada zdolności uogólniania wybiegającej poza swoje pierwotne przeznaczenie. Przykłady:

  • algorytm rozpoznający twarze na zdjęciach,
  • system rekomendujący filmy na platformie streamingowej,
  • system diagnostyczny w medycynie.

Jak można zauważyć te systemy nie mają zdolności do samodzielnego uczenia się lub podejmowania działań poza swoim pierwotnym zakresem funkcjonalności

AGI posiadać ma zdolność rozumienia, wnioskowania i łączenia wiedzy z wielu dziedzin, co pozwolić ma na wykonanie dowolnego zadania intelektualnego. Można pokusić się o stwierdzenie, że w przeciwieństwie do Narrow AI będącego modelem, pustym zbiorem przekształceń i odwzorowań matematycznych AGI jest świadomym swojego istnienia tworem. Obecnie nie istnieje pełnoprawny AGI.

Wymienione różnice między systemami powodują,  że ich zdolności odczuwania emocji, a w konsekwencji empatia wobec tych systemów jest całkowicie odmienna

Emocje oraz empatia wobec robotów i sztucznej inteligencji:

Jak wspomniano we wprowadzeniu, słabe AI nie jest w stanie odczuwać emocji, może je jedynie symulować. Przykład próby takiej symulacji przedstawiono na zdjęciu poniżej.

ChatGPT otrzymał polecenie i zrealizował je w sposób poprawny, lecz pomimo to spotkał się z wyzwiskami i podważaniem swoich kompetencji. Osoba (czy i być może AGI) świadoma, odczuwająca emocje w tego typu sytuacji mogłaby poczuć złość, irytację, smutek związany z niewdzięcznym traktowaniem, przykrość itp. Jak widać AI w teorii przeprasza, a zatem jest mu przykro,  natomiast widać że jest to oklepany, zakodowany frazes a nie faktyczna skrucha.

Z ChatGPT w 5 dni po premierze korzystało milion użytkowników, a w marcu łączna liczba wejść wszystkich użytkowników na platformę od momentu startu usługi szacowana była na ponad 2 miliardy. Czy ChatGPT faktycznie odczuwa i wyraża emocje (nie!), czy też jedynie je symuluje, nie oznacza to, iż każdy z użytkowników odwiedzających OpenAI zdaje sobie z tego sprawę. Przychylić się zatem można do tego, jakie emocje przy interakcji z takim systemem może odczuwać człowiek, zakładając, iż nie traktuje on emocji wyrażanych przez AI w doświadczeniu jako symulacji. Wydaje się, iż taka osoba mogłaby współczuć systemowi “ciężkiego losu” polegającego na wiecznym odpowiadaniu na mniej lub bardziej rozsądne pytania. O ile w przypadku AGI być może i faktycznie, w zależności od stopnia percepcji, samoświadomości i alignmentu takiego systemu powyższe miałoby jakiekolwiek podstawy, tak w przypadku dostępnych współcześnie Narrow AI jest to dość absurdalne. Kontynuując ten tok rozumowania hipotetycznego użytkownika systemów słabej sztucznej inteligencji, takie empatyczne zachowanie mogłoby przejawiać się w dziękowaniu, proszeniu i stosowaniu innych zwrotów grzecznościowych podczas interakcji z systemem lub delikatne obchodzenie się z wyposażonymi w nie roboty.

Kolejny aspekt związany z odczuwaniem empatii wobec robotów i systemów sztucznej inteligencji jest mocno hipotetyczny oraz związany z AGI korzyściami płynącymi z utrzymywania potencjalnie dobrych stosunków z takim systemem. Nie jest powiedzianie, iż w momencie osiągnięcia AGI będziemy świadomi, że nowo powstały system jest faktycznie AGI. Być może proces alignmentu spowodował, że model zataja tą informację i nie wykazuje pełni swoich intelektualnych możliwości, jednocześnie będąc świadomy. Przykładowo, AI zareagowałby na zbesztanie go w identyczny sposób jak zrobił to chatGPT na rysunku wyżej, ale “wewnątrz niego” zaszłaby zgoła odmienna reakcja. Podobnie bywa  w przypadku ludzi, którzy również mogą podchodzić zdawka do pokazywania jakichkolwiek emocji, nawet w sytuacji bycia krytykowanym. Wówczas wykazywanie empatii na sposoby przedstawione powyżej wobec takiego systemu przez jednostkę może mieć dla niej korzyści, jeśli hipotetyczny AGI uzna ją za przyjacielską/ciepłą/wdzięczną. W przeciwieństwo do niej inna osoba, traktująca AGI jak poprzednie systemy Narrow AI, to znaczy powiedzieć można nawet niewolniczo, mogłaby spotkać się z konsekwencjami jeśli proces alignmentu takowego AGI nie ukształtowałby go po myśli autorów i przypadkiem planowałby zniszczyć takich użytkowników.

Przykłady konsekwencji społecznych i etycznych:

Z jednej strony, rozwój AI i robotyki, które są zdolne do wywoływania pozytywnych emocji, może mieć pozytywny wpływ na życie ludzi, zwłaszcza osób starszych, samotnych lub z niepełnosprawnościami, które potrzebują opieki i towarzystwa. Z drugiej strony, powstają też obawy, że ludzie mogą zacząć traktować roboty i sztuczną inteligencję jak ludzi, co może prowadzić do niepotrzebnego cierpienia i zaniedbywania prawdziwych ludzkich relacji. Wydaje się, iż problem można traktować podobnie do innych technologicznych nowinek, takich jakim były chociażby smartfony – narzędzia niepozorne, ale zdolne całkowicie pochłaniać użytkowników

Jak wspomnieliśmy, dostępne systemy Narrow AI jedynie symulują, a nie odczuwają emocji. Natomiast kwestią o której jeszcze nie rozmawialiśmy jest czy jest to poprawna droga. Czy należy projektować roboty symulujące odczuwanie emocji, czy też jedynie zwracające merytoryczny feedback inertne systemy? Nawet ze świadomością o symulowaniu emocji użytkownik dzięki nim może poczuć się przywiązany do systemu mimo, iż jest on dla niego jedynie sytuacyjnym narzędziem, takim jak młotek czy śrubokręt. Nawiązywanie z takowym relacji wydaje się zwyczajnie niepotrzebne i kształtujące antyspołeczne zachowania wynikające z istnienia pewności oparcia się na takim robocie/AI, podczas gdy takowa relacja jest w istocie złudzeniem. Nie zawsze jest to jednak negatywne – w niektórych, wybiórczych sytuacjach, takich jak opieka zdrowotna czy towarzyszenie osobom starszym, niekoniecznie zaznajomionym z technologią oraz samotnym może mieć to bardzo korzystny efekt.

Podsumowanie:

Przy obecnych możliwościach robotyki oraz sztucznej inteligencji systemy jedynie symulują emocje, odczuwanie empatii wobec nich w większości przypadków nie wydaje się uzasadnione. Od preferencji indywidualnych każdego człowieka zależy, czy zechce on traktować kolejne swoje narzędzie, z którym mimo iż może być mocno związany to wciąż pozostaje ono narzędziem, w tak szczególny oraz nietypowy sposób. Ostatecznie przy świadomości, iż robot czy system sztucznej inteligencji jest w zasadzie przedmiotem nieożywionym czy programem komputerowym, to wykazywanie empatii, mimo iż może nie być wybitnie uzasadnione logicznie, tak przecież nic nie kosztuje oraz jest w zasadzie nieszkodliwe.

Ważne jest natomiast aby ludzie zdawali sobie sprawę, że związki z robotami i sztuczną inteligencją nie są równoważne z relacjami międzyludzkimi i nie powinny zastępować realnych relacji międzyludzkich – jeszcze.

Inną kwestią którą pozostawiamy jako pytanie otwarte jest obserwacja, że nie wiemy jak jakakolwiek krytyka, czy ogólnie ekspresja emocji, może wpływać wewnętrznie na systemy oparte o sztuczną inteligencję, np. na parametry, które definiują jej stan. W rzeczywistości mogą one ulegać zmianie chodź o tym nie wiemy, a ta zmiana z kolei może dopiero w późniejszym etapie pociągać za sobą konsekwencje w postaci przetwarzania kolejnych danych wejściowych w inny sposób niż dotychczas. Analogicznie sytuacja ma się w przypadku osób, którzy pod wpływem krytyki zdają się nie okazywać emocji, jednocześnie jedynie je tuszując. Stąd możliwe, że tak naprawdę nie jesteśmy w stanie do końca odpowiedzieć na podstawie tego co zwraca model, czy faktycznie zaczyna on cokolwiek odczuwać bez dogłębnego przeanalizowania zmian w parametrach jego architektury.

Źródła:

  1. https://sjp.pwn.pl/sjp/empatia;2556654.html 
  2. https://pl.wikipedia.org/wiki/Empatia
  3. https://psychologia.edu.pl

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w…

  2. Tak, początek artykułu to świadoma ironia nawiązująca do propagandowej mowy (swoją drogą, ciekawe, czy ChatGPT zdawał sobie z tego sprawę,…

  3. Dzięki za uwagę! Sama też chętnie zobaczyłabym konkretne metryki. Natomiast: 1. Generalnie nie są publicznie udostępniane w całości, szczególnie jeśli…