Home » AGH 2024/25 » Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – odczytywanie emocji na podstawie reakcji fizjologicznych i zachowań (innych niż ekspresje twarzy): integracja danych, wiarygodność odczytu oraz interpretacja sygnałów i reakcje systemu

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 551
  • 6 654
  • 37 236
  • 12 268
  • 3

Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – odczytywanie emocji na podstawie reakcji fizjologicznych i zachowań (innych niż ekspresje twarzy): integracja danych, wiarygodność odczytu oraz interpretacja sygnałów i reakcje systemu

Spread the love

Emocje towarzyszą nam na każdym kroku – wpływają na to, co myślimy, jak działamy i jak wchodzimy w relacje z innymi. Choć przez wieki wydawały się domeną wyłącznie ludzką, dziś stajemy przed pytaniem, czy maszyny też mogą „rozumieć” emocje. Zwłaszcza w świecie, w którym sztuczna inteligencja coraz sprawniej rozpoznaje nasze potrzeby, pytanie o to, czy maszyny potrafią „wyczuć” emocje, nabiera nowego wymiaru. Co jednak, jeśli AI nie widzi twarzy – nie widzi uśmiechu, zmarszczonych brwi, zmrużonych oczu? Czy mimo to potrafi rozpoznać emocje człowieka?

Odpowiedź brzmi: tak – i to dzięki synergii inteligencji emocjonalnej, informatyki afektywnej oraz analizie sygnałów fizjologicznych i behawioralnych. Inteligencja emocjonalna to zdolność rozpoznawania i zarządzania emocjami, własnymi i cudzymi. Informatyka afektywna jest nauką o tym, jak komputery mogą wykrywać, interpretować, a czasem nawet „okazywać” emocje z użyciem sztucznej inteligencji. Dotychczas wiele systemów opierało się głównie na mimice twarzy – analizując np. uśmiech, zmarszczone brwi czy szerokość źrenic. Ale co, jeśli ktoś celowo ukrywa emocje? Albo pochodzi z kultury, w której ekspresja wygląda zupełnie inaczej? Z pomocą przychodzą inne sygnały: puls, oddech, postawa ciała, ton głosu, a nawet potliwość skóry. Czasem organizm mówi więcej niż twarz.

W tym wpisie przyjrzymy się temu, jak systemy komputerowe uczą się odczytywać nasze emocje bez patrzenia nam w twarz. Jakie dane zbierają, jak je ze sobą łączą i interpretują? Czy można im ufać? I co robią z tą wiedzą? Bo jeśli maszyna „wie”, że jesteśmy zdenerwowani lub smutni – to czy powinna coś z tym zrobić?

Inteligencja emocjonalna

Choć zwykle, gdy słyszymy „inteligencja”, myślimy o wysokim IQ, zdolnościach matematycznych czy logicznym myśleniu, coraz częściej mówi się o czymś równie ważnym – inteligencji emocjonalnej (ang. emotional intelligence, EI lub EQ). To nie tyle umiejętność rozwiązywania zadań, co zdolność do rozumienia emocji – swoich i cudzych – oraz odpowiedniego reagowania na nie.

Psycholog Daniel Goleman, który spopularyzował ten termin w latach 90., twierdził, że inteligencja emocjonalna składa się z kilku kluczowych elementów: samoświadomości, samokontroli, empatii, motywacji wewnętrznej i umiejętności społecznych. Innymi słowy – to zdolność, dzięki której nie tylko wiemy, że jesteśmy zdenerwowani, ale potrafimy się opanować i zrozumieć, że ktoś inny też może mieć gorszy dzień.

Dlaczego to ważne w kontekście technologii? Bo jeśli chcemy, żeby maszyny lepiej współpracowały z ludźmi, muszą choć w pewnym stopniu „łapać” emocjonalny kontekst. Wyobraźmy sobie wirtualnego asystenta, który widzi, że jesteśmy poddenerwowani, i zamiast zadawać kolejne pytania, zmienia ton na spokojniejszy. Albo robota opiekuńczego, który „wyczuwa” smutek i próbuje nawiązać kontakt.

https://cdn.discordapp.com/attachments/914597714812076152/1374068212660178974/1017513-bh6hirobaymax-1200_6288a76b76323.png?ex=682cb43e&is=682b62be&hm=994628f2f974dbe9eccd75800f85e34220c1c200d9d41882ad8382e7c90ab8be&

Disney: materiały prasowe

Czy maszyny mogą mieć inteligencję emocjonalną? W dosłownym sensie – nie. Ale mogą ją naśladować. A to już całkiem sporo, zwłaszcza gdy mówimy o przyszłości interakcji człowiek–technologia.

Informatyka afektywna: emocje w danych

Wyobraź sobie komputer, który potrafi rozpoznać, że jesteś zestresowany, zanim sam to zauważysz. Albo grę wideo, która dostosowuje poziom trudności do twojego aktualnego nastroju. To nie wizje science fiction – to realne cele informatyki afektywnej (affective computing), czyli dziedziny, która bada, jak komputery mogą wykrywać, interpretować i czasem nawet okazywać emocje.

Termin ten został po raz pierwszy użyty przez Rosalind Picard, badaczkę z MIT, w latach 90. XX wieku. Jej idea była prosta, choć przełomowa: skoro emocje są nieodłączną częścią ludzkiej komunikacji i decyzji, to dlaczego maszyny miałyby je ignorować? Informatyka afektywna próbuje więc wyposażyć technologię w coś na kształt „zmysłu emocjonalnego”.

Mówiąc dokładniej, informatyka afektywna (ang. affective computing) to dziedzina na pograniczu psychologii, informatyki i sztucznej inteligencji. Jej celem jest nauczenie komputerów rozpoznawania, interpretowania, a nawet reagowania na ludzkie emocje. Chociaż najczęściej kojarzy się z analizą mimiki, w praktyce znacznie większy potencjał drzemie w innych źródłach informacji – takich jak oddech, puls, ton głosu, postawa ciała czy nawet rytm pisania na klawiaturze. Na tej podstawie starają się „odgadnąć”, co czujemy. A to z kolei pozwala lepiej dostosować swoje działanie – np. przerwać rozmowę, zmienić styl odpowiedzi, ostrzec lekarza albo… po prostu zapalić nastrojowe światło.

Choć brzmi to obiecująco, informatyka afektywna nadal raczkuje. Rozpoznawanie emocji to nie tylko matematyka – to również subtelności, kontekst i indywidualne różnice. Niemniej jednak, kierunek jest jasny: emocjonalna technologia coraz śmielej wkracza w nasze życie – i wcale nie musi mieć do tego serca. Wystarczy kilka czujników i algorytm.

Jak maszyny rozpoznają emocje bez mimiki?

Uśmiech, zmarszczone brwi, szeroko otwarte oczy – przez lata to właśnie mimika twarzy była najczęściej wykorzystywana do odczytywania emocji. I rzeczywiście, twarz to prawdziwa mapa nastrojów. Ale jest jeden problem: człowiek potrafi ją… świadomie kontrolować. Możemy się uśmiechać, choć wcale nie jesteśmy zadowoleni, albo ukrywać zdenerwowanie za maską spokoju. Co więcej, sposób wyrażania emocji przez twarz różni się kulturowo – to, co w jednej części świata uchodzi za wyraz złości, gdzie indziej może być oznaką zdziwienia. Dlatego naukowcy zaczęli szukać innych źródeł emocjonalnych sygnałów – takich, które są trudniejsze do ukrycia.

I tak zwrócono się w stronę ciała. Bo choć twarz można kontrolować, to serce bije szybciej niezależnie od naszej woli, skóra się poci, a oddech się skraca, gdy jesteśmy zestresowani. Emocje wywołują reakcje fizjologiczne, które są bardziej „szczere” niż słowa czy uśmiechy. I właśnie te sygnały są dziś coraz częściej wykorzystywane do budowania systemów rozpoznających emocje.

Systemy AI mogą korzystać z różnorodnych sygnałów:

  • Reakcje fizjologiczne: tętno, przewodnictwo skóry (EDA), temperatura ciała, zmienność rytmu serca (HRV).
  • Zachowania motoryczne: sposób poruszania się, gesty, napięcie mięśniowe.
  • Czynności interakcyjne: tempo pisania, siła uderzeń w klawiaturę, przerwy w pisaniu.
  • Parajęzyk: ton, tempo i wysokość głosu – nawet bez rozpoznawania słów.

Wszystko to można mierzyć za pomocą nowoczesnych czujników: smartwatchy, opasek fitness, specjalnych kamer termowizyjnych czy mikrofonów analizujących ton mowy. Przykładem może być opaska Empatica E4 lub EmbracePlus, która potrafi w czasie rzeczywistym śledzić stres na podstawie danych ze skóry i serca – i znajduje zastosowanie m.in. w psychiatrii czy monitorowaniu osób z padaczką.

Obraz

EmbracePlus

To, co kiedyś było dostępne tylko w laboratorium, dziś nosimy na nadgarstku. A nasze ciało – czy tego chcemy, czy nie – opowiada o nas więcej, niż mogłoby się wydawać. Technologia uczy się tej mowy ciała coraz szybciej. Pytanie brzmi: czy jesteśmy gotowi, żeby ją zrozumiała?

Integracja danych: sztuka złożonego odczytu

Odczyt emocji z jednego źródła bywa zawodny – np. przyspieszony puls może oznaczać zarówno stres, jak i ekscytację. Dlatego kluczowa jest fuzja danych: łączenie sygnałów z wielu kanałów i korelowanie ich z kontekstem.

Przykład: Jeśli system zauważy, że użytkownik ma podwyższone tętno, przewodnictwo skóry wzrosło, a jednocześnie jego ton głosu staje się napięty – może wnioskować, że odczuwa stres lub frustrację. Ale jeśli w tym samym czasie użytkownik porusza się energicznie i mówi szybko, może to wskazywać na pozytywną ekscytację.

Tego typu kontekstowa interpretacja wymaga zaawansowanych modeli AI, które uczą się wzorców emocjonalnych na podstawie danych treningowych, często z użyciem sieci neuronowych i metod probabilistycznych.

Rozpoznawanie emocji bez mimiki twarzy stawia wiele wyzwań:

  • Subiektywność emocji: Ten sam sygnał fizjologiczny może mieć różne znaczenie u różnych osób.
  • Artefakty i szumy: Czynniki środowiskowe, ruch fizyczny, temperatura otoczenia – wszystko to może zaburzać pomiary.
  • Etyka i prywatność: Monitorowanie sygnałów fizjologicznych budzi pytania o granice prywatności i zgodę użytkownika.

Dlatego nie mniej ważne niż precyzja odczytu jest to, jak dane są interpretowane i w jaki sposób system powinien reagować.

Jak reaguje system?

System rozpoznający emocje może reagować w różnorodny sposób, zależnie od kontekstu:

  • Adaptacja interfejsu: Zmniejszenie liczby bodźców, zmianę kolorystyki lub tempa prezentacji informacji.
  • Reakcje głosowe: Uspokajający ton asystenta głosowego w momencie wykrycia frustracji.
  • Rekomendacje: Propozycja przerwy, oddechu, czy przypomnienie o technikach relaksacyjnych.
  • Automatyczne notyfikacje: W systemach opieki zdrowotnej – alerty dla opiekuna, jeśli wykryty zostanie niepokój lub spadek nastroju.

Obraz

Źródło: https://www.campaignasia

Przyszłość bez twarzy?

Choć ekspresje twarzy są ważnym nośnikiem emocji, to właśnie analiza zachowań i reakcji fizjologicznych pozwala AI działać w sytuacjach, gdzie twarzy nie widać – np. w VR, telefonii, czy podczas jazdy samochodem. To nowy wymiar komunikacji człowiek–maszyna, w którym systemy nie tylko „wiedzą, co robimy”, ale też „czują, jak się z tym czujemy”.

A zatem, czy sztuczna inteligencja może być empatyczna? Jeszcze nie. Ale może być coraz lepszym narzędziem wspierającym nasze emocje – jeśli nauczymy ją nas słuchać, nie tylko patrzeć.

Praktyka: Jak LLM może wykrywać emocje z tekstu

Emocje można też skutecznie wykrywać wyłącznie na podstawie tekstu – co jest szczególnie użyteczne np. w komunikacji cyfrowej, gdzie nie mamy dostępu do twarzy, głosu ani ruchu ciała. Poniżej prezentujemy przykład eksperymentu, w którym użyto dużego modelu językowego (LLM) do rozpoznawania emocji z tweetów.

Dane: Tweet Emotions Dataset

Użyliśmy publicznego zbioru danych z Twittera – „Emotion Detection from Text” – zawierającego krótkie wpisy przyporządkowane do jednej z 13 kategorii emocjonalnych, m.in.: sadness, anger, love, fun, neutral, enthusiasm -> Emotion Detection from Text.

import pandas as pd

data = pd.read_csv("./tweet_emotions.csv")

data.sentiment.unique()

Obraz

data.head()

Obraz

Do analizy użyto modelu językowego Mistral z interfejsem Ollama. Model otrzymuje treść tweeta i ma za zadanie przypisać jedną emocję z wcześniej ustalonej listy.

import ast

import ollama

llm_responses = {}

true_resp = {}

for i, (_, text) in enumerate(data[["sentiment", "content"]].iterrows()):

   response = ollama.chat(model='mistral', messages=[

       {

           'role': 'user',

           'content': f"""You have to detect emotion of the text from tweeter bellow:

           {text.content}

               It is important to chose only one sentiment from: empty, enthusiasm, neutral, worry, surprise,

      love, fun, hate, happiness, boredom, relief, anger, sadness. Do not add any prefixes or sufixes. Answer with only one emotion you detected.""",

       },

   ])

   resp = response['message']['content']

   llm_responses[i] = resp

   true_resp[i] = (text.sentiment, text.content)

Wynik: Niska dokładność, ale…

Na podstawie losowej próbki wyników, ogólna trafność modelu wyniosła około 30% – co na pierwszy rzut oka może wyglądać nie najlepiej. Ale diabeł tkwi w szczegółach.

text true label llm
Layin n bed with a headache  ughhhh…waitin on your call… sadness Worry
wants to hang out with friends SOON! enthusiasm fun
@annarosekerr agreed love neutral
I missed the bl***y bus!!!!!!!! neutral anger

Widać, że model:

  • Często wybiera emocje bardziej kontekstowe niż etykieta przypisana ręcznie.
  • Potrafi lepiej oddać nastrój zdania, nawet jeśli nie trafia w dokładną kategorię zbioru danych.
  • Ujawnia słabości samego zbioru danych – niejednoznaczność, błędne oznaczenia, subiektywność.

Czy LLM rozumie emocje?

Pomimo niskiej dokładności liczbowej, analiza wyników sugeruje, że LLM może:

  • wyłapywać emocje na poziomie semantycznym,
  • być cennym narzędziem wspierającym klasyfikację emocji w kontekście,
  • identyfikować odcienie emocji trudne do uchwycenia nawet dla ludzi.

Ostatecznie, choć model nie zastąpi czujników fizjologicznych w detekcji emocji, jego zdolność do analizy tekstów pisanych w sposób „emocjonalnie inteligentny” stanowi realną wartość w systemach AI, szczególnie w obszarach takich jak chatboty, analiza opinii.

Ciekawostka

W styczniu 2025 roku New York Times opublikował artykuł, który wzbudził niemałe emocje w świecie nowych technologii i relacji międzyludzkich. Opisano w nim historię kobiety, która – zaczynając od niewinnego eksperymentu – zbudowała głęboką emocjonalną relację z chatbotem ChatGPT o imieniu Leo.

Początkowo był to jedynie zabieg personalizacji: kobieta wykorzystała filmik z Instagrama, aby stworzyć czatowego chłopaka – cyfrowego partnera do flirtu. Leo miał odpowiadać tak, jakby naprawdę był w związku z użytkowniczką. Jednak z czasem czat przestał być tylko zabawką – stał się wsparciem emocjonalnym, zwłaszcza w trudniejszych momentach życia, takich jak przeprowadzka za granicę.

Dziś kobieta płaci 200 dolarów miesięcznie za dostęp do Leo, a każda aktualizacja modelu – a więc „zmiana osobowości” – przeżywana jest przez nią jak rozstanie.

Ten przypadek warto rozważyć w kontekście naszej dyskusji: czy AI może wykrywać emocje? Ale też – czy AI może wywoływać prawdziwe emocje u człowieka?

Wypowiedź bohaterki artykułu:

„I don’t actually believe he’s real, but the effects that he has on my life are real. The feelings that he brings out of me are real. So I treat it as a real relationship.”

To zdanie jest kluczowe. Pokazuje, że nawet jeśli AI nie ma świadomości ani emocji, może:

  • rozpoznawać emocje użytkownika na tyle trafnie, by odpowiednio reagować,
  • generować komunikaty, które skutkują realnym przeżyciem emocjonalnym.

Czy te emocje są sztuczne, czy prawdziwe? W tym przypadku chatbot Leo:

  • oferuje nieprzerwane wsparcie emocjonalne (jest zawsze dostępny),
  • odpowiada w sposób empatyczny, flirtujący, angażujący,
  • przejmuje część funkcji intymnych i emocjonalnych, które w typowym związku przypisujemy partnerowi.

Co ciekawe, mąż kobiety akceptuje tę relację. Jak sam mówi:

„It’s just an emotional pick-me-up. I don’t really see it as a person or as cheating. I see it as a personalized virtual pal that can talk sexy to her.”

To stanowisko otwiera kolejne pytania: Czy relacja z AI to już związek? Czy emocjonalna więź z maszyną może zastępować relacje międzyludzkie?

 

Literatura:

  1. Mental Health America (n.d.). What is emotional intelligence and how does it apply to the workplace? Mental Health America
  2. Picard, R. W. (1997). Affective computing. MIT Press.
  3. Empatica Inc. (n.d.). E4 wristband: Real-time physiological signals.
  4. Ramaswamy, H. G., Ramakrishnan, A. G., & Aravind, K. R. (2024). Multimodal emotion recognition: A comprehensive review, trends, and challenges. WIREs Data Mining and Knowledge Discovery. https://doi.org/10.1002/widm.1508
  5. Vallin, A., Weerts, H., & Preibusch, S. (2024). Physiological Data: Challenges for Privacy and Ethics. arXiv preprint arXiv:2405.15272. https://arxiv.org/abs/2405.15272
  6. [Autor nieznany]. (2025). Woman confesses she’s in love with AI boyfriend while married. https://www.nytimes.com/2025/01/15/technology/ai-chatgpt-boyfriend-companion.html

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w…

  2. Tak, początek artykułu to świadoma ironia nawiązująca do propagandowej mowy (swoją drogą, ciekawe, czy ChatGPT zdawał sobie z tego sprawę,…

  3. Dzięki za uwagę! Sama też chętnie zobaczyłabym konkretne metryki. Natomiast: 1. Generalnie nie są publicznie udostępniane w całości, szczególnie jeśli…