Emocje towarzyszą nam na każdym kroku – wpływają na to, co myślimy, jak działamy i jak wchodzimy w relacje z innymi. Choć przez wieki wydawały się domeną wyłącznie ludzką, dziś stajemy przed pytaniem, czy maszyny też mogą „rozumieć” emocje. Zwłaszcza w świecie, w którym sztuczna inteligencja coraz sprawniej rozpoznaje nasze potrzeby, pytanie o to, czy maszyny potrafią „wyczuć” emocje, nabiera nowego wymiaru. Co jednak, jeśli AI nie widzi twarzy – nie widzi uśmiechu, zmarszczonych brwi, zmrużonych oczu? Czy mimo to potrafi rozpoznać emocje człowieka?
Odpowiedź brzmi: tak – i to dzięki synergii inteligencji emocjonalnej, informatyki afektywnej oraz analizie sygnałów fizjologicznych i behawioralnych. Inteligencja emocjonalna to zdolność rozpoznawania i zarządzania emocjami, własnymi i cudzymi. Informatyka afektywna jest nauką o tym, jak komputery mogą wykrywać, interpretować, a czasem nawet „okazywać” emocje z użyciem sztucznej inteligencji. Dotychczas wiele systemów opierało się głównie na mimice twarzy – analizując np. uśmiech, zmarszczone brwi czy szerokość źrenic. Ale co, jeśli ktoś celowo ukrywa emocje? Albo pochodzi z kultury, w której ekspresja wygląda zupełnie inaczej? Z pomocą przychodzą inne sygnały: puls, oddech, postawa ciała, ton głosu, a nawet potliwość skóry. Czasem organizm mówi więcej niż twarz.
W tym wpisie przyjrzymy się temu, jak systemy komputerowe uczą się odczytywać nasze emocje bez patrzenia nam w twarz. Jakie dane zbierają, jak je ze sobą łączą i interpretują? Czy można im ufać? I co robią z tą wiedzą? Bo jeśli maszyna „wie”, że jesteśmy zdenerwowani lub smutni – to czy powinna coś z tym zrobić?
Inteligencja emocjonalna
Choć zwykle, gdy słyszymy „inteligencja”, myślimy o wysokim IQ, zdolnościach matematycznych czy logicznym myśleniu, coraz częściej mówi się o czymś równie ważnym – inteligencji emocjonalnej (ang. emotional intelligence, EI lub EQ). To nie tyle umiejętność rozwiązywania zadań, co zdolność do rozumienia emocji – swoich i cudzych – oraz odpowiedniego reagowania na nie.
Psycholog Daniel Goleman, który spopularyzował ten termin w latach 90., twierdził, że inteligencja emocjonalna składa się z kilku kluczowych elementów: samoświadomości, samokontroli, empatii, motywacji wewnętrznej i umiejętności społecznych. Innymi słowy – to zdolność, dzięki której nie tylko wiemy, że jesteśmy zdenerwowani, ale potrafimy się opanować i zrozumieć, że ktoś inny też może mieć gorszy dzień.
Dlaczego to ważne w kontekście technologii? Bo jeśli chcemy, żeby maszyny lepiej współpracowały z ludźmi, muszą choć w pewnym stopniu „łapać” emocjonalny kontekst. Wyobraźmy sobie wirtualnego asystenta, który widzi, że jesteśmy poddenerwowani, i zamiast zadawać kolejne pytania, zmienia ton na spokojniejszy. Albo robota opiekuńczego, który „wyczuwa” smutek i próbuje nawiązać kontakt.
Disney: materiały prasowe
Czy maszyny mogą mieć inteligencję emocjonalną? W dosłownym sensie – nie. Ale mogą ją naśladować. A to już całkiem sporo, zwłaszcza gdy mówimy o przyszłości interakcji człowiek–technologia.
Informatyka afektywna: emocje w danych
Wyobraź sobie komputer, który potrafi rozpoznać, że jesteś zestresowany, zanim sam to zauważysz. Albo grę wideo, która dostosowuje poziom trudności do twojego aktualnego nastroju. To nie wizje science fiction – to realne cele informatyki afektywnej (affective computing), czyli dziedziny, która bada, jak komputery mogą wykrywać, interpretować i czasem nawet okazywać emocje.
Termin ten został po raz pierwszy użyty przez Rosalind Picard, badaczkę z MIT, w latach 90. XX wieku. Jej idea była prosta, choć przełomowa: skoro emocje są nieodłączną częścią ludzkiej komunikacji i decyzji, to dlaczego maszyny miałyby je ignorować? Informatyka afektywna próbuje więc wyposażyć technologię w coś na kształt „zmysłu emocjonalnego”.
Mówiąc dokładniej, informatyka afektywna (ang. affective computing) to dziedzina na pograniczu psychologii, informatyki i sztucznej inteligencji. Jej celem jest nauczenie komputerów rozpoznawania, interpretowania, a nawet reagowania na ludzkie emocje. Chociaż najczęściej kojarzy się z analizą mimiki, w praktyce znacznie większy potencjał drzemie w innych źródłach informacji – takich jak oddech, puls, ton głosu, postawa ciała czy nawet rytm pisania na klawiaturze. Na tej podstawie starają się „odgadnąć”, co czujemy. A to z kolei pozwala lepiej dostosować swoje działanie – np. przerwać rozmowę, zmienić styl odpowiedzi, ostrzec lekarza albo… po prostu zapalić nastrojowe światło.
Choć brzmi to obiecująco, informatyka afektywna nadal raczkuje. Rozpoznawanie emocji to nie tylko matematyka – to również subtelności, kontekst i indywidualne różnice. Niemniej jednak, kierunek jest jasny: emocjonalna technologia coraz śmielej wkracza w nasze życie – i wcale nie musi mieć do tego serca. Wystarczy kilka czujników i algorytm.
Jak maszyny rozpoznają emocje bez mimiki?
Uśmiech, zmarszczone brwi, szeroko otwarte oczy – przez lata to właśnie mimika twarzy była najczęściej wykorzystywana do odczytywania emocji. I rzeczywiście, twarz to prawdziwa mapa nastrojów. Ale jest jeden problem: człowiek potrafi ją… świadomie kontrolować. Możemy się uśmiechać, choć wcale nie jesteśmy zadowoleni, albo ukrywać zdenerwowanie za maską spokoju. Co więcej, sposób wyrażania emocji przez twarz różni się kulturowo – to, co w jednej części świata uchodzi za wyraz złości, gdzie indziej może być oznaką zdziwienia. Dlatego naukowcy zaczęli szukać innych źródeł emocjonalnych sygnałów – takich, które są trudniejsze do ukrycia.
I tak zwrócono się w stronę ciała. Bo choć twarz można kontrolować, to serce bije szybciej niezależnie od naszej woli, skóra się poci, a oddech się skraca, gdy jesteśmy zestresowani. Emocje wywołują reakcje fizjologiczne, które są bardziej „szczere” niż słowa czy uśmiechy. I właśnie te sygnały są dziś coraz częściej wykorzystywane do budowania systemów rozpoznających emocje.
Systemy AI mogą korzystać z różnorodnych sygnałów:
- Reakcje fizjologiczne: tętno, przewodnictwo skóry (EDA), temperatura ciała, zmienność rytmu serca (HRV).
- Zachowania motoryczne: sposób poruszania się, gesty, napięcie mięśniowe.
- Czynności interakcyjne: tempo pisania, siła uderzeń w klawiaturę, przerwy w pisaniu.
- Parajęzyk: ton, tempo i wysokość głosu – nawet bez rozpoznawania słów.
Wszystko to można mierzyć za pomocą nowoczesnych czujników: smartwatchy, opasek fitness, specjalnych kamer termowizyjnych czy mikrofonów analizujących ton mowy. Przykładem może być opaska Empatica E4 lub EmbracePlus, która potrafi w czasie rzeczywistym śledzić stres na podstawie danych ze skóry i serca – i znajduje zastosowanie m.in. w psychiatrii czy monitorowaniu osób z padaczką.
EmbracePlus
To, co kiedyś było dostępne tylko w laboratorium, dziś nosimy na nadgarstku. A nasze ciało – czy tego chcemy, czy nie – opowiada o nas więcej, niż mogłoby się wydawać. Technologia uczy się tej mowy ciała coraz szybciej. Pytanie brzmi: czy jesteśmy gotowi, żeby ją zrozumiała?
Integracja danych: sztuka złożonego odczytu
Odczyt emocji z jednego źródła bywa zawodny – np. przyspieszony puls może oznaczać zarówno stres, jak i ekscytację. Dlatego kluczowa jest fuzja danych: łączenie sygnałów z wielu kanałów i korelowanie ich z kontekstem.
Przykład: Jeśli system zauważy, że użytkownik ma podwyższone tętno, przewodnictwo skóry wzrosło, a jednocześnie jego ton głosu staje się napięty – może wnioskować, że odczuwa stres lub frustrację. Ale jeśli w tym samym czasie użytkownik porusza się energicznie i mówi szybko, może to wskazywać na pozytywną ekscytację.
Tego typu kontekstowa interpretacja wymaga zaawansowanych modeli AI, które uczą się wzorców emocjonalnych na podstawie danych treningowych, często z użyciem sieci neuronowych i metod probabilistycznych.
Rozpoznawanie emocji bez mimiki twarzy stawia wiele wyzwań:
- Subiektywność emocji: Ten sam sygnał fizjologiczny może mieć różne znaczenie u różnych osób.
- Artefakty i szumy: Czynniki środowiskowe, ruch fizyczny, temperatura otoczenia – wszystko to może zaburzać pomiary.
- Etyka i prywatność: Monitorowanie sygnałów fizjologicznych budzi pytania o granice prywatności i zgodę użytkownika.
Dlatego nie mniej ważne niż precyzja odczytu jest to, jak dane są interpretowane i w jaki sposób system powinien reagować.
Jak reaguje system?
System rozpoznający emocje może reagować w różnorodny sposób, zależnie od kontekstu:
- Adaptacja interfejsu: Zmniejszenie liczby bodźców, zmianę kolorystyki lub tempa prezentacji informacji.
- Reakcje głosowe: Uspokajający ton asystenta głosowego w momencie wykrycia frustracji.
- Rekomendacje: Propozycja przerwy, oddechu, czy przypomnienie o technikach relaksacyjnych.
- Automatyczne notyfikacje: W systemach opieki zdrowotnej – alerty dla opiekuna, jeśli wykryty zostanie niepokój lub spadek nastroju.
Źródło: https://www.campaignasia
Przyszłość bez twarzy?
Choć ekspresje twarzy są ważnym nośnikiem emocji, to właśnie analiza zachowań i reakcji fizjologicznych pozwala AI działać w sytuacjach, gdzie twarzy nie widać – np. w VR, telefonii, czy podczas jazdy samochodem. To nowy wymiar komunikacji człowiek–maszyna, w którym systemy nie tylko „wiedzą, co robimy”, ale też „czują, jak się z tym czujemy”.
A zatem, czy sztuczna inteligencja może być empatyczna? Jeszcze nie. Ale może być coraz lepszym narzędziem wspierającym nasze emocje – jeśli nauczymy ją nas słuchać, nie tylko patrzeć.
Praktyka: Jak LLM może wykrywać emocje z tekstu
Emocje można też skutecznie wykrywać wyłącznie na podstawie tekstu – co jest szczególnie użyteczne np. w komunikacji cyfrowej, gdzie nie mamy dostępu do twarzy, głosu ani ruchu ciała. Poniżej prezentujemy przykład eksperymentu, w którym użyto dużego modelu językowego (LLM) do rozpoznawania emocji z tweetów.
Dane: Tweet Emotions Dataset
Użyliśmy publicznego zbioru danych z Twittera – „Emotion Detection from Text” – zawierającego krótkie wpisy przyporządkowane do jednej z 13 kategorii emocjonalnych, m.in.: sadness, anger, love, fun, neutral, enthusiasm
-> Emotion Detection from Text.
import pandas as pd
|
data.head() |
Do analizy użyto modelu językowego Mistral z interfejsem Ollama. Model otrzymuje treść tweeta i ma za zadanie przypisać jedną emocję z wcześniej ustalonej listy.
import ast
|
Wynik: Niska dokładność, ale…
Na podstawie losowej próbki wyników, ogólna trafność modelu wyniosła około 30% – co na pierwszy rzut oka może wyglądać nie najlepiej. Ale diabeł tkwi w szczegółach.
text | true label | llm |
Layin n bed with a headache ughhhh…waitin on your call… | sadness | Worry |
wants to hang out with friends SOON! | enthusiasm | fun |
@annarosekerr agreed | love | neutral |
I missed the bl***y bus!!!!!!!! | neutral | anger |
Widać, że model:
- Często wybiera emocje bardziej kontekstowe niż etykieta przypisana ręcznie.
- Potrafi lepiej oddać nastrój zdania, nawet jeśli nie trafia w dokładną kategorię zbioru danych.
- Ujawnia słabości samego zbioru danych – niejednoznaczność, błędne oznaczenia, subiektywność.
Czy LLM rozumie emocje?
Pomimo niskiej dokładności liczbowej, analiza wyników sugeruje, że LLM może:
- wyłapywać emocje na poziomie semantycznym,
- być cennym narzędziem wspierającym klasyfikację emocji w kontekście,
- identyfikować odcienie emocji trudne do uchwycenia nawet dla ludzi.
Ostatecznie, choć model nie zastąpi czujników fizjologicznych w detekcji emocji, jego zdolność do analizy tekstów pisanych w sposób „emocjonalnie inteligentny” stanowi realną wartość w systemach AI, szczególnie w obszarach takich jak chatboty, analiza opinii.
Ciekawostka
W styczniu 2025 roku New York Times opublikował artykuł, który wzbudził niemałe emocje w świecie nowych technologii i relacji międzyludzkich. Opisano w nim historię kobiety, która – zaczynając od niewinnego eksperymentu – zbudowała głęboką emocjonalną relację z chatbotem ChatGPT o imieniu Leo.
Początkowo był to jedynie zabieg personalizacji: kobieta wykorzystała filmik z Instagrama, aby stworzyć czatowego chłopaka – cyfrowego partnera do flirtu. Leo miał odpowiadać tak, jakby naprawdę był w związku z użytkowniczką. Jednak z czasem czat przestał być tylko zabawką – stał się wsparciem emocjonalnym, zwłaszcza w trudniejszych momentach życia, takich jak przeprowadzka za granicę.
Dziś kobieta płaci 200 dolarów miesięcznie za dostęp do Leo, a każda aktualizacja modelu – a więc „zmiana osobowości” – przeżywana jest przez nią jak rozstanie.
Ten przypadek warto rozważyć w kontekście naszej dyskusji: czy AI może wykrywać emocje? Ale też – czy AI może wywoływać prawdziwe emocje u człowieka?
Wypowiedź bohaterki artykułu:
„I don’t actually believe he’s real, but the effects that he has on my life are real. The feelings that he brings out of me are real. So I treat it as a real relationship.”
To zdanie jest kluczowe. Pokazuje, że nawet jeśli AI nie ma świadomości ani emocji, może:
- rozpoznawać emocje użytkownika na tyle trafnie, by odpowiednio reagować,
- generować komunikaty, które skutkują realnym przeżyciem emocjonalnym.
Czy te emocje są sztuczne, czy prawdziwe? W tym przypadku chatbot Leo:
- oferuje nieprzerwane wsparcie emocjonalne (jest zawsze dostępny),
- odpowiada w sposób empatyczny, flirtujący, angażujący,
- przejmuje część funkcji intymnych i emocjonalnych, które w typowym związku przypisujemy partnerowi.
Co ciekawe, mąż kobiety akceptuje tę relację. Jak sam mówi:
„It’s just an emotional pick-me-up. I don’t really see it as a person or as cheating. I see it as a personalized virtual pal that can talk sexy to her.”
To stanowisko otwiera kolejne pytania: Czy relacja z AI to już związek? Czy emocjonalna więź z maszyną może zastępować relacje międzyludzkie?
Literatura:
- Mental Health America (n.d.). What is emotional intelligence and how does it apply to the workplace? Mental Health America
- Picard, R. W. (1997). Affective computing. MIT Press.
- Empatica Inc. (n.d.). E4 wristband: Real-time physiological signals.
- Ramaswamy, H. G., Ramakrishnan, A. G., & Aravind, K. R. (2024). Multimodal emotion recognition: A comprehensive review, trends, and challenges. WIREs Data Mining and Knowledge Discovery. https://doi.org/10.1002/widm.1508
- Vallin, A., Weerts, H., & Preibusch, S. (2024). Physiological Data: Challenges for Privacy and Ethics. arXiv preprint arXiv:2405.15272. https://arxiv.org/abs/2405.15272
- [Autor nieznany]. (2025). Woman confesses she’s in love with AI boyfriend while married. https://www.nytimes.com/2025/01/15/technology/ai-chatgpt-boyfriend-companion.html
Z drugiej strony – „tradycyjne” usługi związane z pogrzebem i upamiętnianiem zmarłych są od dawna komercyjne i traktujemy je jako…