W dzisiejszych czasach coraz częściej korzystamy z technologii opartych na sztucznej inteligencji, w tym także z robotów. Jednakże wraz z ich rosnącą popularnością i coraz bardziej zaawansowanymi możliwościami pojawia się pytanie, jak powinniśmy traktować te maszyny i jakie emocje wzbudzają w naszej psychice podczas takich interakcji?
Cel wpisu:
Celem naszego wpisu jest analiza społecznych i filozoficznych aspektów związanych z empatią wobec robotów i sztucznej inteligencji.
Temat dotyczy pytania czy empatia może zostać rozszerzona na systemy technologiczne i czy ludzie są w stanie czuć empatię wobec robotów i sztucznej inteligencji, które nie posiadają świadomości i nie doświadczają emocji w takim samym sensie, jak ludzie.
Wprowadzenie:
W ostatnich latach coraz częściej słyszymy o robotach i sztucznej inteligencji (AI), które zdają się naśladować ludzkie zachowania i reakcje. Wraz z postępem technologicznym pojawiają się pytania, czy te systemy mogą wykazywać emocje i czy mogą czuć w podobny sposób, jak to ma miejsce u ludzi.
W kontekście tego problemu, pojawiają się pytania o to, czy istnieją jakieś fizyczne lub biologiczne podstawy emocji, które mogą być zaimplementowane w maszynach. Czy możliwe jest, aby roboty i sztuczna inteligencja wykazywały zachowania emocjonalne, takie jak miłość, strach, gniew czy smutek? Czy roboty i sztuczna inteligencja mogą czuć i przeżywać te emocje, czy są one jedynie symulowane?
W naszym poście chcemy skupić się na analizie tych zagadnień, a także na badaniu empatii wobec robotów i sztucznej inteligencji. Stawiamy tym samym pytania:
- Czy możemy czuć empatię wobec systemów, które nie posiadają świadomości i nie doświadczają emocji w takim samym sensie, jak ludzie?
- Czy empatia jest wyłącznie zjawiskiem ludzkim, czy może zostać rozszerzona na inne formy życia, w tym na systemy technologiczne?
Z perspektywy własnych obserwacji, w naszym poście podejmiemy się analizy tych kwestii, a także ich wpływu na nasze życie codzienne i społeczeństwo. Na wstępnie postawy następujące pytanie otwarte:
- Czy maszyny mogą rzeczywiście wykazywać emocje, czy też jest to jedynie iluzja?
Najpierw należy sobie zadać pytanie czym są w ogóle emocje.
Emocje u ludzi i robotów:
Definicja emocji dla ludzi jest złożona i różnorodna, ale można ją określić jako subiektywną i skomplikowaną reakcję organizmu na bodźce wewnętrzne i zewnętrzne, związane z poziomem pobudzenia, afektem, nastrojem i zachowaniem. Emocje u ludzi obejmują szeroki zakres uczuć, od radości, smutku i gniewu, po strach, zazdrość, miłość i wiele innych.
Definicja emocji dla robotów i sztucznej inteligencji jest bardziej skomplikowana i kontrowersyjna, ponieważ roboty i AI nie posiadają świadomości, wewnętrznych stanów emocjonalnych ani doświadczeń. Jednakże, można je programować i projektować w taki sposób, aby naśladowały ludzkie emocje i zachowania. Można powiedzieć, że emocje robotów i AI to symulacja, która może wydawać się autentyczna, ale tak naprawdę mocno upraszcza rzeczywistość i przybliża ludzkie emocje, będąc jednocześnie zależną od algorytmów i danych, które są wprowadzone do systemu.
Wiedząc już czym są emocje z perspektywy ludzi oraz maszyn, w następnym kroku skupmy się na tej z emocji, która stanowi tytuł wpisu, czyli na empatii.
Czym dokładnie jest empatia?
Definicja według słownika języka polskiego [1]:
Empatia – umiejętność wczuwania się w stan wewnętrzny drugiej osoby.
Definicja z wikipedii [2]:
Empatia (gr. empátheia „cierpienie”) – zdolność odczuwania stanów psychicznych innych osób (empatia emocjonalna), umiejętność przyjęcia ich sposobu myślenia, spojrzenia z ich perspektywy na rzeczywistość (empatia poznawcza).
Definicja ze strony poświęconej psychologi [3]:
Empatia – Poznawcza świadomość i rozumienie emocji oraz uczuć innej osoby. W tym sensie zasadniczym znaczeniem terminu jest intelektualne lub pojęciowe uchwycenie, zrozumienie afektu (ekspresja emocji) kogoś innego.
Czy AI może odczuwać empatię?
W następnym punkcie postaramy poruszyć kwestie odnośnie postawionych pytań, czyli tego czy systemy sztucznej inteligencji są w stanie odczuwać empatię oraz czy empatia ludzi w stosunku do systemów sztucznej inteligencji jest uzasadniona.
Typy systemów AI – Narrow AI vs AGI
Jeśli chodzi o odczuwanie empatii przez systemy sztucznej inteligencji, jesteśmy zdania, iż istotnym do zdefiniowania punktem wyjścia przy wszelkich rozważaniach w temacie emocji systemów sztucznej inteligencji, a empatii wobec nich jest typ rozpatrywanego systemu. W szczególności zdefiniować można Narrow AI(słaba sztuczna inteligencja) oraz być może wkrótce również i Artificial General Intelligence(silna sztuczna inteligencja).
Narrow AI to sztuczna inteligencja zaprojektowana do konkretnych zadań w wąskim zakresie dziedzin. Działa wykorzystując określony zestaw parametrów, nie posiada zdolności uogólniania wybiegającej poza swoje pierwotne przeznaczenie. Przykłady:
- algorytm rozpoznający twarze na zdjęciach,
- system rekomendujący filmy na platformie streamingowej,
- system diagnostyczny w medycynie.
Jak można zauważyć te systemy nie mają zdolności do samodzielnego uczenia się lub podejmowania działań poza swoim pierwotnym zakresem funkcjonalności
AGI posiadać ma zdolność rozumienia, wnioskowania i łączenia wiedzy z wielu dziedzin, co pozwolić ma na wykonanie dowolnego zadania intelektualnego. Można pokusić się o stwierdzenie, że w przeciwieństwie do Narrow AI będącego modelem, pustym zbiorem przekształceń i odwzorowań matematycznych AGI jest świadomym swojego istnienia tworem. Obecnie nie istnieje pełnoprawny AGI.
Wymienione różnice między systemami powodują, że ich zdolności odczuwania emocji, a w konsekwencji empatia wobec tych systemów jest całkowicie odmienna
Emocje oraz empatia wobec robotów i sztucznej inteligencji:
Jak wspomniano we wprowadzeniu, słabe AI nie jest w stanie odczuwać emocji, może je jedynie symulować. Przykład próby takiej symulacji przedstawiono na zdjęciu poniżej.
ChatGPT otrzymał polecenie i zrealizował je w sposób poprawny, lecz pomimo to spotkał się z wyzwiskami i podważaniem swoich kompetencji. Osoba (czy i być może AGI) świadoma, odczuwająca emocje w tego typu sytuacji mogłaby poczuć złość, irytację, smutek związany z niewdzięcznym traktowaniem, przykrość itp. Jak widać AI w teorii przeprasza, a zatem jest mu przykro, natomiast widać że jest to oklepany, zakodowany frazes a nie faktyczna skrucha.
Z ChatGPT w 5 dni po premierze korzystało milion użytkowników, a w marcu łączna liczba wejść wszystkich użytkowników na platformę od momentu startu usługi szacowana była na ponad 2 miliardy. Czy ChatGPT faktycznie odczuwa i wyraża emocje (nie!), czy też jedynie je symuluje, nie oznacza to, iż każdy z użytkowników odwiedzających OpenAI zdaje sobie z tego sprawę. Przychylić się zatem można do tego, jakie emocje przy interakcji z takim systemem może odczuwać człowiek, zakładając, iż nie traktuje on emocji wyrażanych przez AI w doświadczeniu jako symulacji. Wydaje się, iż taka osoba mogłaby współczuć systemowi “ciężkiego losu” polegającego na wiecznym odpowiadaniu na mniej lub bardziej rozsądne pytania. O ile w przypadku AGI być może i faktycznie, w zależności od stopnia percepcji, samoświadomości i alignmentu takiego systemu powyższe miałoby jakiekolwiek podstawy, tak w przypadku dostępnych współcześnie Narrow AI jest to dość absurdalne. Kontynuując ten tok rozumowania hipotetycznego użytkownika systemów słabej sztucznej inteligencji, takie empatyczne zachowanie mogłoby przejawiać się w dziękowaniu, proszeniu i stosowaniu innych zwrotów grzecznościowych podczas interakcji z systemem lub delikatne obchodzenie się z wyposażonymi w nie roboty.
Kolejny aspekt związany z odczuwaniem empatii wobec robotów i systemów sztucznej inteligencji jest mocno hipotetyczny oraz związany z AGI korzyściami płynącymi z utrzymywania potencjalnie dobrych stosunków z takim systemem. Nie jest powiedzianie, iż w momencie osiągnięcia AGI będziemy świadomi, że nowo powstały system jest faktycznie AGI. Być może proces alignmentu spowodował, że model zataja tą informację i nie wykazuje pełni swoich intelektualnych możliwości, jednocześnie będąc świadomy. Przykładowo, AI zareagowałby na zbesztanie go w identyczny sposób jak zrobił to chatGPT na rysunku wyżej, ale “wewnątrz niego” zaszłaby zgoła odmienna reakcja. Podobnie bywa w przypadku ludzi, którzy również mogą podchodzić zdawka do pokazywania jakichkolwiek emocji, nawet w sytuacji bycia krytykowanym. Wówczas wykazywanie empatii na sposoby przedstawione powyżej wobec takiego systemu przez jednostkę może mieć dla niej korzyści, jeśli hipotetyczny AGI uzna ją za przyjacielską/ciepłą/wdzięczną. W przeciwieństwo do niej inna osoba, traktująca AGI jak poprzednie systemy Narrow AI, to znaczy powiedzieć można nawet niewolniczo, mogłaby spotkać się z konsekwencjami jeśli proces alignmentu takowego AGI nie ukształtowałby go po myśli autorów i przypadkiem planowałby zniszczyć takich użytkowników.
Przykłady konsekwencji społecznych i etycznych:
Z jednej strony, rozwój AI i robotyki, które są zdolne do wywoływania pozytywnych emocji, może mieć pozytywny wpływ na życie ludzi, zwłaszcza osób starszych, samotnych lub z niepełnosprawnościami, które potrzebują opieki i towarzystwa. Z drugiej strony, powstają też obawy, że ludzie mogą zacząć traktować roboty i sztuczną inteligencję jak ludzi, co może prowadzić do niepotrzebnego cierpienia i zaniedbywania prawdziwych ludzkich relacji. Wydaje się, iż problem można traktować podobnie do innych technologicznych nowinek, takich jakim były chociażby smartfony – narzędzia niepozorne, ale zdolne całkowicie pochłaniać użytkowników
Jak wspomnieliśmy, dostępne systemy Narrow AI jedynie symulują, a nie odczuwają emocji. Natomiast kwestią o której jeszcze nie rozmawialiśmy jest czy jest to poprawna droga. Czy należy projektować roboty symulujące odczuwanie emocji, czy też jedynie zwracające merytoryczny feedback inertne systemy? Nawet ze świadomością o symulowaniu emocji użytkownik dzięki nim może poczuć się przywiązany do systemu mimo, iż jest on dla niego jedynie sytuacyjnym narzędziem, takim jak młotek czy śrubokręt. Nawiązywanie z takowym relacji wydaje się zwyczajnie niepotrzebne i kształtujące antyspołeczne zachowania wynikające z istnienia pewności oparcia się na takim robocie/AI, podczas gdy takowa relacja jest w istocie złudzeniem. Nie zawsze jest to jednak negatywne – w niektórych, wybiórczych sytuacjach, takich jak opieka zdrowotna czy towarzyszenie osobom starszym, niekoniecznie zaznajomionym z technologią oraz samotnym może mieć to bardzo korzystny efekt.
Podsumowanie:
Przy obecnych możliwościach robotyki oraz sztucznej inteligencji systemy jedynie symulują emocje, odczuwanie empatii wobec nich w większości przypadków nie wydaje się uzasadnione. Od preferencji indywidualnych każdego człowieka zależy, czy zechce on traktować kolejne swoje narzędzie, z którym mimo iż może być mocno związany to wciąż pozostaje ono narzędziem, w tak szczególny oraz nietypowy sposób. Ostatecznie przy świadomości, iż robot czy system sztucznej inteligencji jest w zasadzie przedmiotem nieożywionym czy programem komputerowym, to wykazywanie empatii, mimo iż może nie być wybitnie uzasadnione logicznie, tak przecież nic nie kosztuje oraz jest w zasadzie nieszkodliwe.
Ważne jest natomiast aby ludzie zdawali sobie sprawę, że związki z robotami i sztuczną inteligencją nie są równoważne z relacjami międzyludzkimi i nie powinny zastępować realnych relacji międzyludzkich – jeszcze.
Inną kwestią którą pozostawiamy jako pytanie otwarte jest obserwacja, że nie wiemy jak jakakolwiek krytyka, czy ogólnie ekspresja emocji, może wpływać wewnętrznie na systemy oparte o sztuczną inteligencję, np. na parametry, które definiują jej stan. W rzeczywistości mogą one ulegać zmianie chodź o tym nie wiemy, a ta zmiana z kolei może dopiero w późniejszym etapie pociągać za sobą konsekwencje w postaci przetwarzania kolejnych danych wejściowych w inny sposób niż dotychczas. Analogicznie sytuacja ma się w przypadku osób, którzy pod wpływem krytyki zdają się nie okazywać emocji, jednocześnie jedynie je tuszując. Stąd możliwe, że tak naprawdę nie jesteśmy w stanie do końca odpowiedzieć na podstawie tego co zwraca model, czy faktycznie zaczyna on cokolwiek odczuwać bez dogłębnego przeanalizowania zmian w parametrach jego architektury.
Źródła:
- https://sjp.pwn.pl/sjp/empatia;2556654.html
- https://pl.wikipedia.org/wiki/Empatia
- https://psychologia.edu.pl
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…