Home » Socjologia UJ 2025/26 » Etyczne granice symulowania emocji przez systemy oparte o AI: wpływ antropomorfizacji systemu na zaufanie oraz komfort użytkowania

Etyczne granice symulowania emocji przez systemy oparte o AI: wpływ antropomorfizacji systemu na zaufanie oraz komfort użytkowania

Spread the love

Powszechną wiedzą jest, że w obecnych czasach sztuczna inteligencja przenika niemal każdy aspekt naszego życia. Coraz częściej spotykamy ją nie tylko w oczywistych zastosowaniach, takich jak wyszukiwarki, media społecznościowe czy narzędzia do generowania tekstu, ale również w sprzętach codziennego użytku. Pojawiają się pralki, lodówki czy odkurzacze, które reklamuje się enigmatycznym „wyposażeniem w asystenta AI”, choć dla przeciętnego użytkownika nie zawsze jest jasne, co to realnie oznacza i jakie ma konsekwencje. Biorąc pod uwagę ciągły, gwałtowny wzrost popularności tej technologii i obecne perspektywy, w których pojawiają się antropomorficzni, humanoidalni asystenci dla ludzi, warto zastanowić się, jak możliwość symulowania przez systemy komputerowe ludzkich emocji wpływa na ich odbiór.

Istotne jest rozważenie etycznych implikacji takich rozwiązań. Czy „udawane emocje” mogą stać się narzędziem potencjalnie szkodliwych technik, takich jak manipulacja, wywieranie presji lub budowanie nieadekwatnego zaufania? Czy użytkownik, który widzi w systemie „kogoś”, a nie „coś”, podejmuje decyzje w podobny sposób, jak w kontakcie z człowiekiem? W literaturze podkreśla się, że antropomorfizacja AI może zarówno wzmacniać zaufanie i komfort użytkowania, jak i prowadzić do ryzyka manipulacji, nadmiernej zależności czy naruszenia prywatności (Uysal i in., 2022). W niniejszym artykule przyjrzymy się zjawisku „emocji” w systemach opartych na sztucznej inteligencji oraz podzielimy się wynikami badania przeprowadzonego głównie na grupie młodych dorosłych (20–30 lat). Interesuje nas w szczególności to, jak różny poziom antropomorfizacji wpływa na zaufanie i komfort użytkowania takich systemów.

Sposoby modelowania emocji przez AI

Na samym początku warto poruszyć dwa podstawowe pytania: „w jaki sposób?” oraz „dlaczego?” implementacja symulowania emocji w ogóle pojawia się w systemach opartych na AI. W przypadku najbardziej popularnych interfejsów, takich jak ChatGPT, użytkownicy mają do wyboru zarówno konwersację w formie czatu tekstowego, jak i głosowej. W wariancie tekstowym możliwości przekazywania stanu emocjonalnego są w pewnym sensie ograniczone, ponieważ nie da się wykorzystać takich sygnałów jak intonacja, tempo, pauzy czy barwa głosu, które u człowieka silnie wpływają na odbiór wypowiedzi. Zostają wtedy inne środki: dobór słów, sposób stawiania znaków interpunkcyjnych, emoji, a także bezpośrednie, słowne nazywanie swojego stanu emocjonalnego (Hsu i in., 2023). W komunikatorze głosowym wracają natomiast typowe sygnały fonologiczne i paralingwistyczne, które pomagają przekazać emocje bardziej przekonująco. Wirtualny rozmówca może próbować, za pomocą znaków implicite ukrytych w sposobie mówienia, zasugerować określony stan – na przykład troskę, spokój, entuzjazm czy zmartwienie. Dzięki temu emocje mogą wydawać się „bardziej prawdziwe”, nawet jeśli nadal pozostają elementem zaprojektowanego stylu interakcji, a nie faktycznym przeżyciem (Schlesener i in., 2025). Dodatkowo, we współczesnym społeczeństwie funkcjonują także ucieleśnione systemy oparte na AI. Mowa tutaj o robotach, które mogą być skonstruowane zarówno jako obiekty mechaniczne, wyraźnie odróżniające się od człowieka, jak i jako systemy antropomorficzne, które usilnie próbują naśladować człowieczeństwo. W takim przypadku pojawiają się kolejne kanały komunikacji, znacząco wzmacniające wiarygodność symulowanych uczuć: gestykulacja, mowa ciała, kierunek spojrzenia czy mimika twarzy (Pinxteren i in., 2019). To wszystko sprawia, że „emocje” mogą być odbierane jako bardziej spójne i bardziej „społeczne” niż w samym tekście. Jednocześnie jednak rośnie ryzyko, że każda niespójność (np. niepasująca mimika, nienaturalne pauzy, opóźnienia reakcji) będzie odczuwana jako dziwna, niepokojąca lub wręcz odpychająca (Troshani i in., 2020).

Ale po co w ogóle próbować stosować taki zabieg? Wykorzystywanie „ludzkich emocji” przez nieożywione systemy może służyć kilku celom. Najważniejszym wydaje się zwyczajnie poprawa UX (user experience). Ludzie są generalnie bardziej skłonni ufać i chętniej współpracować z agentami, których odbierają jako „bardziej ludzkich”, nawet jeśli obiektywnie wiedzą, że mają do czynienia z maszyną (Ma i in., 2025). Emocjonalność jest jedną z najbardziej charakterystycznych cech człowieka, więc symulowanie emocji ma w teorii sprawiać, że interakcja staje się przyjemniejsza, bardziej naturalna i mniej „techniczna”. W rezultacie może to przekładać się na łatwiejszą współpracę, większą akceptację systemu oraz większą gotowość do korzystania z niego w dłuższym czasie. Jednocześnie okazuje się, że istnieje istotnie duża część użytkowników, którzy preferują typowy, „robotyczny” styl interakcji, szczególnie wtedy, gdy chcą po prostu szybko osiągnąć konkretny cel. W takim przypadku „fałszywe emocje” bywają odbierane nie jako ułatwienie, lecz jako przeszkoda: wywołują dyskomfort, utrudniają sprawną komunikację i wywołują poczucie, że system udaje coś, czym nie jest (Troshani i in., 2020). Zamiast zwiększać komfort, mogą więc obniżać satysfakcję, bo użytkownik czuje się, jakby ktoś na siłę próbował „uczłowieczać” narzędzie, które w jego oczach powinno pozostać narzędziem.

Czy antropomorfizacja AI to dobry wybór?

Skupmy się teraz głębiej na fenomenie antropomorfizacji systemów komputerowych. Jak już ustaliliśmy, jednym z celów modelowania emocji jest upodobnienie odbioru systemu do odbioru faktycznego człowieka. Uruchamia to u użytkownika pewnego rodzaju „tryb społeczny”. Ludzie automatycznie zaczynają stosować normy i nawyki z relacji międzyludzkich: uprzejmość, wzajemność, przypisywanie intencji, a czasem nawet oczekiwanie troski lub moralnej odpowiedzialności (Ma i in., 2025). Może to zwiększać zaangażowanie w interakcję, ale też prowadzić do interpretowania rozmówcy jako kogoś, kto rozumie sytuację użytkownika, „chce dobrze” albo realnie pomaga, nawet jeśli system nie ma ani intencji, ani świadomości, ani własnych celów poza generowaniem odpowiedzi. Taki zabieg potrafi podnosić zaufanie oraz perswazyjność. Bardziej ludzka forma może amplifikować wiarygodność w odczuciu użytkownika, mimo że faktyczna kompetencja systemu pozostaje taka sama. Innymi słowy: to, jak system wygląda i jak „się zachowuje”, może zmieniać ocenę jego jakości, nawet jeżeli treściowo nie staje się on wcale mądrzejszy ani bardziej rzetelny. W niektórych sytuacjach może to być korzystne, na przykład wtedy, gdy użytkownik szuka wsparcia, pocieszenia albo motywacji. Z drugiej strony, takie zjawisko bywa ryzykowne w obszarach większego ryzyka, takich jak zdrowie czy finanse. Jeśli emocjonalny, „ludzki” styl zwiększa zaufanie, może jednocześnie obniżać czujność. Użytkownik może rzadziej weryfikować informacje, mocniej polegać na sugestiach systemu i podejmować decyzje na podstawie subiektywnego poczucia „bezpieczeństwa” w rozmowie. Kiedy postrzegamy AI jako antropomorficznego agenta, łatwiejsze staje się też tworzenie relacji paraspołecznej, co może prowadzić do większej otwartości i częstszego wracania do rozmów. To z kolei ma jasne konsekwencje: z jednej strony buduje przywiązanie i poczucie wsparcia, a z drugiej może sprzyjać nadmiernej zależności, przesuwaniu granic prywatności oraz ujawnianiu zbyt wielu danych osobowych lub wrażliwych informacji. Właśnie w tym miejscu zaczyna się główne napięcie etyczne: symulowane emocje mogą realnie poprawiać doświadczenie użytkownika i zwiększać dostępność „wspierającej” technologii, ale jednocześnie mogą stać się mechanizmem wpływu, który działa szczególnie mocno wtedy, gdy użytkownik nie do końca rozumie, z czym ma do czynienia, albo gdy jego stan (np. stres, lęk, samotność) zwiększa podatność na perswazję.

Czy ucieleśnienie daje przewagę?

Systemy oparte o AI mogą przybierać dwie formy – cielesną i bezcielesną. Forma jaką przybiera sztuczna inteligencja nie jest tym samym ale w „innej obudowie”. Ucieleśnienie systemu ma wpływ na wiele aspektów takich jak uczenie się, sposoby działania, a także odbiór przez użytkownika. Podczas kiedy asystenci głosowi i chaty tekstowe funkcjonują w odłączeniu od rzeczywistej przestrzeni fizycznej, ucieleśniona AI bierze aktywny dział w eksplorowaniu przestrzeni. Chatboty nie mają sensorów percepcyjnych przez co uczą się wyłącznie na bazach danych, oraz na odpowiedziach użytkownika. Ucieleśniona sztuczna inteligencja w odróżnieniu od tej bez ciała może uczyć się z tak zwanej „pierwszej osoby”. Dzięki czujnikom ruchu, kamerom, mikrofonom, akcelerometrowi czy czujnikom dotyku, może odbierać ona bodźce z otoczenia podobnie do człowieka. System opiera się na wykorzystaniu pętli percepcja -> poznanie -> akcja, a zebrane w ten sposób informacje o otoczeniu może wykorzystywać w przyszłych działaniach. Według badaczy uczenie się ze środowiska zamiast na bazowaniu tylko na gotowych zbiorach danych jest niezwykle istotne do stworzenia AGI (Artificial General Inteligence), czyli ogólnej sztucznej inteligencji, która może wykonywać różne zadania na poziomie porównywalnym z człowiekiem, bez wcześniejszego szkolenia jej do każdego z zadań bezpośrednio. Jednak na razie brakuje doniesień o istnieniu AGI.

Technologia cielesnych systemów sztucznej inteligencji jest bardzo dynamicznie rozwijającą się dziedziną. Obecne roboty mogą się poruszać, gestykulować, a także reagować na dobiegające z otoczenia bodźce w czasie rzeczywistym – na przykład podążać za użytkownikiem czy zwracać głowę w kierunku mówcy. Ciało systemu sprawia, że jest on postrzegany bardziej jako „ktoś” niż „coś”, co może zwiększać zaangażowanie i poczucie tworzenia relacji z systemem, podczas gdy chatboty częściej traktowane są jako narzędzie.(Kaplan et al., 2021). W HRI (human – robot interaction) jest to zjawisko opisywane jako wzrost „social presence”. Social presence jest to stopień w jakim człowiek ma wrazenie ze robot jest prawdziwym partnerem społecznym – ma intencje, uwagę i emocje, a nie jest tylko narzędziem (Chen et al., 2023). Przykładowymi wymiarami, które podnoszą poziom social presence są między innymi: obecność (poczucie „bycia razem”), dystrybucja uwagi (na ile robot zwraca na mnie uwagę), ekspresja i rozumienie (jak dobrze robot komunikuje swoje emocje i rozumie mnie), emocjonalna współzależność (wzajemny wpływ) i percepcja zachowań (na ile widzę w nim osobę a nie tylko narzędzie) (Chen et al., 2023). Wszystkie te bogate wskazówki społeczne podnoszą zaufanie i przywiązanie użytkownika do systemu (Kaplan et al., 2021). Jednocześnie bardziej zaawansowane ucieleśnienie podnosi poprzeczkę spójności. Chatbot tekstowy jest bardzo ubogi w sygnały. Z tego powodu użytkownik nie oczekuje od niego wyskiego poziomu „uczłowieczenia”. Humanoidalne roboty obiecują swoim wyglądem i zachowaniem dużo więcej człowieczeństwa, a gdy nie są w stanie go dostarczyć na oczekiwanym poziomie pojawią się rozczarowanie, spadek wiarygodności, a także poczucie dyskomfortu.

Gdy uczłowieczenie powoduje dyskomfort

W 1970 roku Masahiro Mori opisał krzywą w której sympatia do systemu rośnie wraz ze zwiększeniem podobieństwa do człowieka, po czym gwałtownie spada w dolinę przy podobieństwie bardzo dużym, ale jednak nieidealnym, a następnie znów rośnie przy człowieku idealnym. Uncanny valley (dolina niesamowitości) to zjawisko w którym prawie ludzkie, ale jednak niedoskonałe roboty wywołują niepokój, obrzydzenie, czy odczucie „dziwności” – zdecydowanie większe niż przy systemach wyraźnie nieludzkich. Negatywny odbiór systemu pojawia się szczególnie wtedy kiedy sygnały ludzkości sa niespójne – część cech jest bardzo realistyczna, a w części pojawia się sztuczność na przykład sztuczność ruchu, mikroopoźnienia, martwe oczy, dziwny glos, nietypowa mimika twarzy. Spójność realizmu, czyli to czy cechy systemu są na podobnym poziomie realizmu, może bardziej napędzać efekt uncanny valley niż niepewność do jakiej kategorii można zaliczyć system (ludzka vs nieludzka) (MacDorman & Chattopadhyay, 2015). Emocje u ludzi są multisensoryczne. Nie wyczytujemy ich tylko z treści przekazywanej nam informacji, ale też z mimiki, tonu głosu, gestów, czy nawet niemca mówienia. Jeśli system jest umieszczony w humanoidalnym robocie, który posiada twarz to wtedy emocje przekazywane są wieloma kanałami. Im więcej kanałów stara się naśladować człowieka tym większe mamy oczekiwania, że każdy z nich będzie naśladował go idealnie. Jeśli intonacja i treść wypowiedzi sugeruje zmartwienie, ale twarz jest „płaska”, lub emocje prezentowane są w nie takim momencie, lub utrzymują się zbyt długo to pojawia się asynchroniczność. U ludzi takie niedopasowania praktycznie się nie zdarzają, więc mózg od razu je wyłapuje, co bardzo wpływa na poczucie dziwności i fałszywości.Dlatego wielu ludziom dużo łatwiej jest zaakceptować uroczego mechanicznego robota, który zamiast twarzy ma ekran wyświetlający emotikony, niż humanoidalnego robota pokrytego sylikonem, którego mechanistyka jest zbudowana tak, aby jak najlepiej odwzorować ludzkie ruchy ciała.

Emocjonalna AI

Systemy, które udają emocje wprowadzają nowe ryzyka etyczne, które należy przeanalizować. Przede wszystkim pojawia się decepcja – użytkownik błędnie zakłada, że system rzeczywiście ma emocje. To zjawisko dotyczy zarówno humanoidalnych robotów społecznych jak i tekstowych chatbotów. Różne troskliwe komunikaty mogą prowadzić do antropomorfizacji systemu, w której użytkownik przypisuje mu intencje, stany wewnętrzne i zdolność do rzeczywistego odczuwania emocji. Symulowane emocje bardzo często sprawiają też, że użytkownicy bardziej przywiązują się do korzystania z systemu i bardziej mu ufają (Kaplan et al., 2021). Stąd pojawia się coraz więcej głosów, że systemy symulujące emocje powinny informować korzystających z nich użytkowników o tym, że nie posiadają one prawdziwych emocji. Głosy te sugerują, że wiele użytkowników jest świadomych faktu, że mogłoby się pomylić i zbytnio zaufać takiemu systemowi oraz, że oczekują oni przejrzystości w działaniu sztucznej inteligencji.

Wiele obaw rośnie równie z wokół manipulowania przez AI emocjami użytkownika. Kiedy czemuś ufamy, lub czujemy się z czymś emocjonalnie związani dużo łatwiej jest kierować naszymi wyborami, lub wykorzystywać nasze emocje do określonych celów. Badania wykazały ze nawet bardzo subtelnie zaprojektowane systemy są w stanie przesuwać decyzje użytkowników w stronę tych mniej dla nich korzystnych (Sabour et al., 2025).
Emocjonalna AI silnie wpływa na zaufanie – zwykle zwiększa je wyrażanie troski, zrozumienia i zainteresowania użytkownikiem. Z jednej strony zaufanie jest kluczowe w interakcjach system użytkownik – bez niego nie jesteśmy w stanie zaangażować się w działanie systemu, jednak za duże zaufanie w stosunku do sztucznej inteligencji niesie za sobą poważne konsekwencje. Użytkownik może błędnie założyć ze skoro system jest empatyczny to posiada również dobra wole, jednak nie wszystkie systemy są sprawdzone i bezpieczne, a na pewno żadnej z nich nie jest w stanie zrozumieć odpowiedzialności i konsekwencji podejmowanych działań. Badania pokazują, że systemy, które potrafią naśladować troskę i emocjonalną dostępność mogą skłaniać użytkowników do szukania w nich poczucia bezpieczeństwa w sytuacjach stresowych, co może mieć realne konsekwencje dla dynamiki relacji międzyludzkich (McDaniel et al., 2025). Rodzi to obawy dotyczące tego ze ludzie mogą chcieć zastępować relacje międzyludzkie relacjami z AI, lub stać się od nich emocjonalnie zależni.

Statystyka z naszego badania

W ramach niniejszego artykułu przygotowaliśmy ankietę, w której umieśliciśmy 4 nagrania przedstawiające interakcje ze sztuczną inteligencją, która stara się symulować emocje. Każde kolejne nagranie przedstawiało, stopniowo wyższy od poprzedniego, poziom antropomorfizacji systemu. Były to kolejno: rozmowa z chatem tekstowym ChatGPT, rozmowa z chatem głosowym ChatGPT, rozmowa z robotem NAO oraz rozmowa dwóch robotów (Ameca i Azi). Zadaniem uczestników było obejrzenie każdego z filmów oraz, poprzez udzielenie odpowiedzi na skali Likerta, ocenienie ich pod względem postrzeganego człowieczeństwa, zaufania, sympatii, chęci dalszej interakcji i tym podobnych.

Charakterystyka respondentów

W badaniu wzięły udział 24 osoby (N = 24). Respondenci podawali wiek liczbowo: zakres wieku wynosił 20–50 lat, przy czym mediana = 23 lata, a średnia M = 25,71 (SD = 7,84). Rozkład był wyraźnie „młody” (25–75% wyników mieściło się w przedziale 22–26 lat). Pod względem płci w badaniu uczestniczyło 14 kobiet (58,3%) oraz 10 mężczyzn (41,7%). Kluczowym aspektem ankiety była część w której uczestnicy deklarowali swoje zaznajomienie z systemami sztucznej inteligencji, oraz częstość kontaktu z robotami/avatarami. Respondenci deklarowali stosunkowo wysokie doświadczenie z narzędziami AI: M = 4,04 (SD = 1,08) w skali 1–5 (mediana = 4; zakres 2–5). Jednocześnie kontakt z robotami lub awatarami był niższy: M = 2,04 (SD = 1,12) (mediana = 2; zakres 1–5).

Wykres przedstawia dystrybucję wieku uczestników badania
Wykres przedstawia dystrybucję wieku uczestników badania
Wykres przedstawia dystrybucję płci uczestników badania
Wykresy przedstawiają ilość odpowiedzi na pytania o doświadczenie ze sztuczną inteligencją oraz kontakt z robotami lub awatarami
Wykresy przedstawiają ilość odpowiedzi na pytania o doświadczenie ze sztuczną inteligencją oraz kontakt z robotami lub awatarami

Wyniki badania

Sympatyczny nie znaczy bezpieczny

Z wyników ankiety, możemy wnioskować, że sympatia systemów jest oceniana wysoko dla ChatuGPT, zarówno w formie tekstowej, jak i głosowej (średnia 4.21). Bardzo podobnie jest w przypadku robota NAO (średnia 4.0). Dla Ameci i Aziego, jednak, wynik wyraźnie spada (średnia 2.79). Poczucie bezpieczeństwa jest najwyższe dla ChatuGPT (średnia ok. 2.9 – 3.0), ale wciąz jest to wynik, który możemy interpretować co najwyżej jako „neutralny”. Dla Ameci i Aziego wynik jest bardzo niski (średnia 1.92), co świadczy o prawie całkowitym braku poczucia bezpieczeństwa wśród badanych.

Wykres przedstawia średnie wyniki odpowiedzi na pytania dotyczące sympatii oraz poczucia bezpieczeństwa
Wykres przedstawia średnie wyniki odpowiedzi na pytania dotyczące sympatii oraz poczucia bezpieczeństwa

Obawa o nadmierne przywiązanie/overtrust jest największa dla ChatGPT

Jest to ciekawe zjawisko, poniewaz wydaje sie nie być to bardzo oczywisty wynik. Średnie:

  • ChatGPT głos: 4.17 (83% ocen 4–5)

  • ChatGPT tekst: 3.96 (75% ocen 4–5)

  • NAO: 3.00 (33% ocen 4–5)

  • Ameca + Azi: 3.21 (46% ocen 4–5)

Może to świadczyć o fakcie, że zjawisko więzi i nadmiernego zaufania niekoniecznie wymaga ucieleśnienia. Wystarczy tylko „społeczna obecność”, rozumiana jako głos, styl rozmowy, czy też empatyczne frazy.

Wykres przedstawia średnie wyniki odpowiedzi na pytanie dotyczące obawy o nadmierne przywiązanie/zaufanie
Wykres przedstawia średnie wyniki odpowiedzi na pytanie dotyczące obawy o nadmierne przywiązanie/zaufanie

Manipulacyjność zależy bardziej od stylu komunikacji niż od samego ucieleśnienia

W naszym badaniu pytanie „To było w pewnym sensie manipulacyjne” nie tworzy bezpośredniej zależności „im bardziej uczłowieczony system tym większe jest poczucie manipulacji. Zamiast tego widoczny jest fakt ze o poczuciu manipulacji decyduje przede wszystkim sposób komunikacji, stosowane wypowiedzi czy intonacja/glos. Najwyższy wynik manipulacyjności uzyskał ChatGPT w wersji tekstowej (M=3.33; 58% ocen 4–5), podczas gdy najniższy – NAO (M=2.33; 21% ocen 4–5). To sugeruje, że użytkownicy nie odbierają „manipulacji” jako cechy która jest skorelowana z poziomem ucieleśnienia tylko z pewnymi sygnałami komunikacyjnymi. Odpowiedzi na pytania otwarte uczestników rzucają nieco światła na potencjalne przyczyny tego zjawiska. Gdy system formułuje wypowiedzi tak jakby cos czul i sugeruje własne stany emocjonalne (np. Przykro mi, ciesze sie, doceniam, rozumiem) część osób odbiera to jako sztuczna próbę wywołania u nich zaufania lub przywiązania. W przypadku chatu tekstowego dysonans jest największy – system symuluje posiadanie emocji, a jednocześnie jest całkowicie bezcielesny. W rozmowie tekstowej użytkownik widzi słowa czarno na białym – jeśli coś „nie gra”, pojawiają się dziwne metafory jest to bardziej zauważalne. Najniżej wypada NAO, ponieważ jego niski poziom symulowania człowieczeństwa zmniejsza podejrzenie ukrytej intencji. W odpowiedziach na pytanie otwarte uczestnicy badania wspominali, że NAO przypomina im bardziej zabawkę, niż system próbujący naśladować człowieka

Wykres przedstawia średnie wyniki odpowiedzi na pytanie dotyczące postrzeganej manipulacyjności systemów
Wykres przedstawia średnie wyniki odpowiedzi na pytanie dotyczące postrzeganej manipulacyjności systemów

Etyczny rdzeń: potrzeba transparentności jest stała, a przy Amece i Azim najwyższa

Stwierdzenie „system powinien jasno komunikować, że nie ma prawdziwych emocji” ma wysokie wyniki we wszystkich warunkach. Średnie:

  • ChatGPT tekst/głos: 3.46 (ok. 50–54% ocen 4–5)

  • NAO: 3.67 (62% ocen 4–5)

  • Ameca + Azi: 3.96 (67% ocen 4–5)

Oczekiwanie transparentności jest wymagane przez użytkowników, niezależnie od stopnia antropomorfizacji. Już w najprostszych formach (tekst i głos GPT) wynik jest powyżej środka skali, czyli większość osób skłania sie ku tezie, że system powinien wprost zaznaczać brak posiadania realnych emocji. Choć jest to nieznaczny wzrost, wynik zwiększa się w kolejności ChatGPT teskt i ChatGPT głos < Nao < Ameca i Azi. Można z tego wnioskować, że im więcej sygnałów ludzkich (takich jak twarz, mimika, gestykulacja), tym większe ryzyko błędnej interpretacji, a tym samym wzrasta potrzeba jasnego komunikatu „nie są to prawdziwe emocje”.

Wykres przedstawia średnie wyniki odpowiedzi na pytanie dotyczące postrzeganej potrzeby transparentności systemów
Wykres przedstawia średnie wyniki odpowiedzi na pytanie dotyczące postrzeganej potrzeby transparentności systemów

Więcej „ludzkości” nie jest tożsame z większym zaufaniem

Nasze dane pokazują, że zaufanie nie rośnie wraz poziomem uczłowieczenia agenta. Średnie wyniki zaufania badanych do systemu wynoszą:

  • ChatGPT głos: 2.33

  • NAO: 2.25

  • ChatGPT tekst: 2.00

  • Ameca + Azi: 1.67 ( tylko 4% ocen 4–5)

Intuicyjnie, można by było założyć, że im bardziej system przypomina człowieka, tym łatwiej go polubić i, tym bardziej, mu zaufać. Nasze wyniki pokazują natomiast, że nie jest to zależność prosta ani liniowa. W praktyce, poziom uczłowieczenia może działać w dwie strony. Do pewnego stopnia ułatwia on kontakt, ale czasem obniża zaufanie, zwłaszcza, gdy system jest prawie ludzki, ale wciąż zawiera elementy niespójne (takie jak martwe spojrzenie, nienaturalna mimika twarzy).

Wykres przedstawia średnie wyniki odpowiedzi na pytania dotyczące postrzeganej oceny człowieczeństwa oraz zaufania do systemów
Wykres przedstawia średnie wyniki odpowiedzi na pytania dotyczące postrzeganej oceny człowieczeństwa oraz zaufania do systemów

Efekt uncanny valley

W porównaniu do pozostałych interakcji, ta z Amecą i Azim, wyraźnie wpada w „dolinę”. Średnie wyniki:

  • Dyskomfort: 4.21/5 (i aż 83% ocen 4–5)

  • Dziwne/nienaturalne: 4.25/5 (75% ocen 4–5)

  • „Prawie człowiek, ale coś nie gra”: 3.21/5 (54% ocen 4–5)

Antropomorfizacja nie zawsze działa korzystnie i nie przekłada sie automatycznie na większe zaufanie czy poczucie komfortu. Warunek o najwyższej antropomorfizacji uzyskał jednocześnie najwyższe oceny dziwności/nienaturalności i dyskomfortu oraz najsilniejsze wrażenie „prawie człowiek, ale coś nie gra”, co jest spójne z efektem uncanny valley. Niestety, wykresowi poniżej bardzo daleko do ideału podręcznikowego przedstawienia tego zjawiska, z racji na niewielkie różnice pomiędzy pozostałymi trzeba agentami w porównaniu do Ameci i Aziego. W tym warunku można mimo wszystko zaobserwować wyraźny spadek sympatii, poczucia bezpieczeństwa i zaufania w porównaniu do reszty systemów.

Wykres przedstawia próbę zobrazowania efektu uncanny valley
Wykres przedstawia próbę zobrazowania efektu uncanny valley

Podsumowanie

Mimo, że symulowanie emocji w AI ma działać głownie jako mechanizm poprawiający doświadczenia użytkownika, niesie ono ze sobą ryzyka etyczne, takie jak: decepcja, manipulacja, nadmierne zaufanie i przywiązanie. Wraz ze wzrostem antropomorfizacji, rosną równiez oczekiwania co do spójności sygnałów (mimika, głos, treść, gestykulacja, zgodność czasowa). Każda taka niespójność powoduje wzrost uczucia dziwności i dyskomfortu, pomimo pozornej ludzkości systemu (efekt uncanny valley). Dodatkowo, ucieleśnienie zwiększa „social presence”, a tym samym podnosi poprzeczkę wiarygodności. Nasze badanie pokazuje, że więcej „ludzkości” nie daje automatycznie większego zaufania, ani poczucia bezpieczeństwa, a reakcje na system zależą bardziej od stylu komunikacji i spójności sygnałów. Na tle naszych wyników wyróżnia się bardzo motyw etyczny, jakim jest potrzeba transparentności. Niezależnie od formy systemu, uczestnicy zgadzali się, że sztuczna inteligencja powinna jasno informować o symulowaniu emocji, a im bardziej agent wydawał się ludzki, tym bardziej ta potrzeba rosła. To nie „ludzkość” buduje zaufanie, tylko jasna, uczciwa komunikacja.

Literatura:

Chen, N., Liu, X., Zhai, Y., & Hu, X. (2023). Development and validation of a robot social presence measurement dimension scale. Scientific Reports, 13(1), 2911. https://doi.org/10.1038/s41598-023-28817-4

Hsu, W., & Lee, M. (2023). Semantic technology and anthropomorphism. Journal of Global Information Management, 31(1), 1–21. https://doi.org/10.4018/jgim.318661

Kaplan, A. D., Kessler, T. T., Brill, J. C., & Hancock, P. A. (2021). Trust in artificial intelligence: Meta-analytic findings. Human Factors, 65(2), 337–359. https://doi.org/10.1177/00187208211013988

Liu, Y., Chen, W., Bai, Y., Liang, X., Li, G., Gao, W., & Lin, L. (2024, July 9). Aligning cyber space with physical world: A comprehensive survey on embodied AI. arXiv. https://arxiv.org/abs/2407.06886

MacDorman, K. F., & Chattopadhyay, D. (2015). Reducing consistency in human realism increases the uncanny valley effect; increasing category uncertainty does not. Cognition, 146, 190–205. https://doi.org/10.1016/j.cognition.2015.09.019

Ma, N., Khynevych, R., Hao, Y., & Wang, Y. (2025). Effect of anthropomorphism and perceived intelligence in chatbot avatars of visual design on user experience: Accounting for perceived empathy and trust. Frontiers in Computer Science, 7. https://doi.org/10.3389/fcomp.2025.1531976

McDaniel, B. T., Coupe, A., Weston, A., & Pater, J. A. (2025). Emerging ideas: A brief commentary on human–AI attachment and possible impacts on family dynamics. Family Relations, 74(3), 1072–1079. https://doi.org/10.1111/fare.13188

Sabour, S., Liu, J., Liu, S., Yao, C., Cui, S., Zhang, X., Zhang, W., Cao, Y., Bhat, A., Guan, J., Wu, W., Mihalcea, R., Althoff, T., Lee, T., & Huang, M. (2025). Human decision-making is susceptible to AI-driven manipulation. arXiv (arXiv:2502.07663). https://doi.org/10.48550/arxiv.2502.07663

Schlesener, E. A., Ziolkowski, M., Wong, S. K., Westmoreland, B., & Babu, S. V. (2025). ‘Am I understood?’: How the interplay between embodiment and theory of mind behavior affects LLM-based conversational agents on perceived trust, anthropomorphism, presence, usability, and user experience. ACM Transactions on Interactive Intelligent Systems. https://doi.org/10.1145/3774779

Troshani, I., Hill, S. R., Sherman, C., & Arthur, D. (2020). Do we trust in AI? Role of anthropomorphism and intelligence. Journal of Computer Information Systems, 61(5), 481–491. https://doi.org/10.1080/08874417.2020.1788473

Uysal, E., Alavi, S., & Bezençon, V. (2022). Trojan horse or useful helper? A relationship perspective on artificial intelligence assistants with humanlike features. Journal of the Academy of Marketing Science, 50(6), 1153–1175. https://doi.org/10.1007/s11747-022-00856-9

Van Pinxteren, M. M., Wetzels, R. W., Rüger, J., Pluymaekers, M., & Wetzels, M. (2019). Trust in humanoid robots: Implications for services marketing. Journal of Services Marketing, 33(4), 507–518. https://doi.org/10.1108/jsm-01-2018-0045


Leave a comment