Home » Socjologia UJ 2025/26 » Emocje pod lupą AI – jak bardzo technologia może ingerować w nasze życie?

Emocje pod lupą AI – jak bardzo technologia może ingerować w nasze życie?

Spread the love

Długo wierzyliśmy, że emocje można wyjaśnić kilkoma ruchami twarzy, zmarszczeniem brwi czy półuśmiechem, tak jakby ludzka twarz działała jak wizualizacja kodu i odsłaniała przed nami cały system ludzkich uczuć. Obraz ten, rozpowszechniony przez psychologię lat 70. i utrwalany w popkulturze, do dziś zdaje się kształtować sposób, w jaki myślimy o emocjach. Tymczasem współczesna nauka coraz głośniej mówi, że to prosta, zbyt wygodna fantazja. Sens emocji znika natychmiast, gdy próbujemy zamknąć je w jednej uniwersalnej kategorii. Mimo to właśnie na tej fantazji buduje się technologie, które dziś nie tylko próbują „odczytać” nastrój użytkownika, ale również dostosowywać do niego swoje działanie.

W świecie, w którym algorytmy analizują nasze mikroekspresje, sugerują reakcje, a nawet modyfikują treści w zależności od naszego nastroju, kluczowe staje się pytanie: czy sztuczna inteligencja powinna w ogóle ingerować w to, co czujemy? Jakie są etyczne konsekwencje personalizacji emocjonalne i w jaki sposób postrzegają tę technologię sami użytkownicy?

Hipoteza uniwersalności to funkcjonujące nadal przekonanie, że ludzie na całym świecie są w stanie rozpoznać emocje innych ludzi na podstawie tych samych ruchów twarzy. Poprzez eksperymenty Paula Ekmana i Wallace Friesen prowadzone na przełomie lat 60. i 70. XX wieku, na stałe przeniknęła ona do kultury popularnej, a w konsekwencji społecznej świadomości. Według hipotezy istnieje sześć podstawowych emocji, a każdej z nich odpowiada konkretny, powszechny i uniwersalny wyraz twarzy. Współczesne badania coraz wyraźniej podważają ten obraz. Mimika twarzy i ekspresja różnią się kulturowo, a co więcej, nawet w obrębie tej samej kultury zależne są od kontekstu.

Przegląd literatury z zakresu nauk społecznych pokazuje, że termin „emocja” jest opisywany jako złożona reakcja psychofizyczna na bodziec, fenomen lub sygnał społeczny motywujący do działania. Emocje definiuje się poprzez ich kluczowe aspekty, dlatego nie istnieje jedna, stabilna i powszechnie akceptowana definicja. Projektanci technologii, chcąc budować systemy zdolne do rozpoznawania stanów emocjonalnych, muszą jednak przyjąć którąś z tych definicji jako obowiązującą. To prowadzi do fundamentalnej niespójności: „emocja” nie ma stałej formy, którą można by precyzyjnie zmierzyć, podczas gdy algorytmy wymagają kategorii jednoznacznych i mierzalnych. W rezultacie przyjęta definicja operacyjna zaczyna być traktowana jak obiektywne odwzorowanie wewnętrznych stanów człowieka.

Tymczasem zarówno psychologia, jak i socjologia, zwłaszcza mikrosocjologia emocji, podkreślają, że emocje jednocześnie należą do jednostki i do zbiorowości; są przeżywane somatycznie, ale także społecznie; zwykle ujmowane są świadomie, choć istnieją również te nieuświadomione. Co najważniejsze, emocje są głęboko zanurzone w kontekście, który sam w sobie bywa zmienny i nieostry – podobnie jak próby ostatecznego zdefiniowania, czym właściwie emocje są.

Dotychczasowe badania wskazują, że problem nie leży wyłącznie w skuteczności rozpoznawania emocji, lecz także w stopniu społecznego przyzwolenia na tego typu praktyki. Nazanin Andalibi i Alexis Shore Ingber, analizując postawy wobec Emotion AI w różnych kontekstach, pokazują, że ogólny poziom komfortu użytkowników wobec świadomości, iż system sztucznej inteligencji interpretuje ich emocje, jest raczej niski — nawet wtedy, gdy samo rozwiązanie oceniane jest jako użyteczne. Akceptacja pojawia się głównie w odniesieniu do emocji postrzeganych jako „bezpieczne”, takich jak radość czy zaskoczenie, natomiast emocje trudne, lub właśnie niejednoznaczne, wywołują w badanych wyraźny dyskomfort.

Podobne wnioski przynosi raport Emotional AI Lab z 2022 roku, “Public Perceptions of Emotion Recognition Technologies in the UK”, oparty na reprezentatywnej próbie mieszkańców Wielkiej Brytanii. Celem badania było poznanie społecznych reakcji na technologie przechwytujące emocje w przestrzeni publicznej — m.in. poprzez analizę mimiki, głosu czy zachowania. Wyniki wskazują na silną ambiwalencję: respondenci dostrzegają potencjalne korzyści (np. poprawę bezpieczeństwa), lecz równocześnie wyrażają głębokie obawy związane z prywatnością oraz poczuciem nadmiernego nadzoru, który może towarzyszyć wykorzystaniu takich systemów na szeroką skalę.

W 2025 roku obserwujemy przesunięcie badań z affective computing do obszaru systemów adaptacyjnych, które mają już nie tylko rozpoznawać, ale dostosowywać się do stanu emocjonalnego użytkowników. Technologia w tym zakresie przestaje więc być wykorzystywana tylko jako narzędzie pomiarowe, a zaczyna wchodzić w rolę pełnego uczestnika interakcji. Niedawno, 1 października 2025, opublikowany został artykuł, w którym doktor Alihan Hadimligliu i Siddhart Linga z Wydziału Informatyki Texas A&M University-Corpus Christi w Teksasie prezentują Face2Feel, prototyp interfejsu dopasowującego się do emocji użytkownika poprzez śledzenie jego mimiki w czasie rzeczywistym za pomocą kamery internetowej. Na podstawie nastroju rozpoznanego w oparciu o uproszczony, Ekmanowski model sześciu podstawowych emocji, system ten dostosowuje kolorystykę czy poziom jasności ekranu, a także proponuje odpowiadające emocjonalnemu stanowi użytkownika treści.  Jak czytamy w artykule przedstawiającym prototyp, Celem systemu jest stworzenie środowiska przyjaznego i atrakcyjnego wizualnie, dostosowanego do potrzeb użytkownika, zapisuje on więc historię występowania oznak złości, radości czy smutku u użytkownika, tworząc jego swoisty emocjonalny portret z wykorzystaniem biblioteki OpenCV i opartego na uczeniu głębokim narzędzia DeepFace, ułatwiającego implementację zaawansowanych algorytmów rozpoznawania twarzy

Długo wierzono, że emocje można wyjaśnić kilkoma ruchami twarzy, zmarszczeniem brwi czy półuśmiechem, tak jakby ludzka twarz działała jak wizualizacja kodu i odsłaniała przed nami cały skomplikowany system wewnętrznych przeżyć i uczuć. Obraz ten, rozpowszechniony przez psychologię lat 70. i utrwalany w popkulturze, do dziś zdaje się kształtować sposób, w jaki myślimy o emocjach. Tymczasem współczesna nauka coraz głośniej mówi, że to prosta, zbyt wygodna fantazja. Sens emocji znika natychmiast, gdy próbujemy zamknąć je w jednej uniwersalnej kategorii. Mimo to właśnie na tej fantazji buduje się technologie, które dziś nie tylko próbują „odczytać” nastrój użytkownika, ale również dostosowywać do niego swoje działanie.

W świecie, w którym algorytmy analizują nasze mikroekspresje, sugerują reakcje, a nawet modyfikują treści w zależności od naszego nastroju, kluczowe staje się pytanie: czy sztuczna inteligencja powinna w ogóle ingerować w to, co czujemy? Jakie są etyczne konsekwencje personalizacji emocjonalne i w jaki sposób postrzegają tę technologię sami użytkownicy?

Hipoteza uniwersalności to przekonanie, że ludzie na całym świecie są w stanie rozpoznać emocje innych ludzi na podstawie mimiki twarzy, ponieważ, niezależnie od . Poprzez eksperymenty Paula Ekmana i Wallace’a Friesen prowadzone na przełomie lat 60. i 70. XX wieku, na stałe przeniknęła ona do kultury popularnej, a w konsekwencji społecznej świadomości. Według hipotezy istnieje sześć podstawowych emocji, a każdej z nich odpowiada konkretny, powszechny i uniwersalny wyraz twarzy. Współczesne badania coraz wyraźniej podważają ten obraz. Mimika twarzy i ekspresja różnią się kulturowo, a w obrębie tej samej kultury zależne są od kontekstu.

Przegląd dostępnej literatury pokazuje, że w naukach społecznych termin „emocja” opisywany jest jako złożona reakcja psychofizyczna na bodziec, fenomen, sygnał społeczny motywujący do działania. Emocje definiowane są poprzez ich kluczowe aspekty, nie mają więc jednorodnej definicji. Projektanci technologii muszą przyjąć jeden ze sposobów definiowania emocji jako prawdziwy, co wskazuje na fundamentalną niespójność: „emocja” nie ma wszak stabilnej formy, którą można by zmierzyć. Algorytmy wymagają terminów mierzalnych, a więc kiedy otrzymują jedną z koncepcji emocji jako definicję operacyjną, jest ona traktowana jako obiektywne odwzorowanie wewnętrznych ludzkich stanów. Tymczasem zarówno psychologia, jak i socjologia, zwłaszcza mikrosocjologia emocji, wskazują na to, że emocje dotyczą jednostki, ale i zbiorowości; odczuwane są somatycznie, w ciele, ale także społecznie; w większości przeżywane świadomie, choć występują też te nieuświadomione; a wszystko to jest zależne od kontekstu, który zmienia się i bywa równie nieostry jak próby ostatecznego zdefiniowania, czym właściwie emocje są.

Wraz z rozwojem technologii analizy twarzy, głosu, mikroekspresji, powyższe napięcia stają się jeszcze wyraźniejsze. Problem nie leży jedynie w skuteczności rozpoznawania emocji, ponieważ w poziomie społecznego przyzwolenia na tę praktykę. Nazanin Andalibi i Alexis Shore Ingber w swoim badaniu, analizując postawy wobec Emotion AI w różnych kontekstach, wskazują, że ogólny poziom komfortu użytkowników wobec świadomości, że system sztucznej inteligencji rozpoznaje ich emocje, jest raczej niski. Dzieje się tak nawet wtedy, gdy samo rozwiązanie oceniane jest jako przydatne. Akceptacja dotyczy zazwyczaj emocji uznawanych za „bezpieczne”, takich jak radość czy zaskoczenie, podczas gdy emocje ambiwalentne lub trudne budzą niepokój. Podobne wnioski przynosi raport Emotional AI Lab z 2022 roku, Public Perceptions of Emotion Recognition Technologies in the UK, oparty na reprezentatywnej próbie mieszkańców Wielkiej Brytanii. Celem badania było poznanie społecznych reakcji na technologie przechwytujące emocje w przestrzeni publicznej, między innymi poprzez analizę mimiki, głosu czy zachowania. Wyniki wskazują na silną ambiwalencję: respondenci dostrzegają potencjalne korzyści (np. poprawę bezpieczeństwa), lecz równocześnie wyrażają głębokie obawy związane z prywatnością oraz poczuciem nadmiernego nadzoru, który może towarzyszyć wykorzystaniu takich systemów na szeroką skalę.

W literaturze krytycznej podkreśla się, że każdy system rozpoznawania emocji opiera się na redukcji złożonego zjawiska do wąskich, mierzalnych kategorii. Kate Crawford zwraca uwagę, że w systemach AI emocja zawsze staje się jedynie sygnałem, źródłem danych technicznych, nigdy natomiast głębszym znaczeniem. W publicystyce pojawią się głosy na temat emocjonalnego kolonializmu technologii: narzucaniu zachodniego sposobu rozumienia emocji jako uniwersalnego wzorca interpretacyjnego. Ten jeden wzorzec jest później reprodukowany przez technologię, która stosuje go wobec wszystkich użytkowników, niezależnie od ich uwarunkowań kulturowych, społecznych czy osobistych.

Na tym tle szczególnie istotne jest przesunięcie badań z obszaru affective computing, którego ambicją było samo rozpoznawanie emocji, w stronę systemów adaptive, które nie tylko klasyfikują emocjonalny stan użytkownika, lecz także dostosowują swoje działanie do jego nastroju. W 2025 roku obserwujemy wyraźną zmianę: technologia przestaje być narzędziem pomiarowym, a zaczyna działać jak pełnoprawny uczestnik interakcji.

Dobrym przykładem tego zwrotu jest opublikowany 1 października 2025 roku prototyp interfejsu o nazwie Face2Feel, opracowany przez Alihana Hadimlıoğlu i Siddhartha Lingę z Wydziału Informatyki Texas A&M University–Corpus Christi. Face2Feel analizuje mimikę użytkownika w czasie rzeczywistym za pomocą biblioteki OpenCV i narzędzia DeepFace, a następnie, w oparciu o uproszczony, ekmanowski model sześciu podstawowych emocji dopasowuje do nastroju użytkownika kolorystykę, poziom jasności, animacje interfejsu oraz rekomendowane treści. Co więcej, system zapisuje historię wykrywanych emocji, tworząc swoisty „portret emocjonalny” użytkownika. Autorzy określają celem projektu stworzenie środowiska przyjaznego i atrakcyjnego wizualnie, jednak z perspektywy nauk społecznych Face2Feel ilustruje znacznie poważniejsze zjawisko: interfejs staje się narzędziem modulacji nastroju, a nie tylko jego pomiaru. W tym sensie jest zapowiedzią technologii, które – jak pisała Shoshana Zuboff – zaczynają operować nie tylko na danych behawioralnych, lecz także afektywnych, wchodząc w obszar subtelnego, trudnego do zauważenia wpływu na użytkownika.

W tym kontekście szczególnego znaczenia nabiera pytanie nie tylko o możliwości techniczne Emotion AI, lecz przede wszystkim o społeczne granice akceptacji dla rozwiązań, które wchodzą w sferę doświadczeń emocjonalnych człowieka. Wiemy, co deklarują laboratoria badawcze. Wiemy, jak technologie te są przedstawiane przez ich projektantów. To narzędzia poprawiające komfort, personalizację, ułatwiające korzystanie z urządzeń i usług. Wiemy również, jakie wątpliwości wnosi do dyskursu literatura krytyczna, zwłaszcza w kontekście prywatności, manipulacji czy ryzyka tworzenia niezdrowych relacji z systemami AI. Nie wiemy jednak, jak faktyczni użytkownicy, którzy nie są uczestnikami eksperymentalnych badań, a odbiorcami technologii w codziennym życiu, oceniają emocjonalną personalizację w realnych warunkach.

Z tego względu zdecydowałyśmy się przeprowadzić ankietę eksploracyjną, której celem było uchwycenie spontanicznych opinii i odczuć wobec systemów zdolnych nie tylko do rozpoznawania emocji, ale również do dostosowywania się do użytkownika na podstawie ich rozpoznania. Interesowało nas, jak użytkownicy postrzegają takie technologie, czy czują się z nimi komfortowo, jakie widzą korzyści, a jakie obawy oraz gdzie ich zdaniem powinny przebiegać etyczne i prawne granice tych systemów.

Wstęp do analizy danych

Ankieta została opracowana jako narzędzie badawcze służące do eksploracji postaw i opinii użytkowników wobec emocjonalnej personalizacji systemów sztucznej inteligencji. Jej konstrukcja wynikała z potrzeby lepszego zrozumienia, jak odbiorcy reagują na technologie zdolne do rozpoznawania i interpretowania emocji oraz dostosowywania generowanych treści w zależności od nastroju użytkownika. Temat ten jest istotny zarówno z perspektywy rozwoju interakcji człowiek–technologia, jak i w kontekście wyzwań etycznych, takich jak prywatność, możliwość manipulacji czy kształtowanie relacji z systemami cyfrowymi.

Kwestionariusz został zaprojektowany tak, aby obejmował kluczowe obszary badawcze: częstość korzystania z narzędzi AI, postawy wobec rozpoznawania emocji, ocenę korzyści i obaw, a także refleksje dotyczące aspektów etycznych i regulacyjnych. Formę ankiety dobrano tak, by umożliwić łatwe i szybkie udzielenie odpowiedzi, przy jednoczesnym zachowaniu rzetelności pomiaru poprzez zastosowanie pytań zamkniętych, półotwartych oraz skali Likerta.

W badaniu zastosowano technikę CAWI (Computer-Assisted Web Interview), polegającą na samodzielnym wypełnianiu elektronicznego kwestionariusza przez respondentów w przeglądarce internetowej, co umożliwia szybkie, ekonomiczne i szerokozasięgowe pozyskiwanie danych ilościowych z różnych grup społecznych. Zastosowanie techniki CAWI było szczególnie uzasadnione ze względu na tematykę badania, bezpośrednio związaną z technologiami cyfrowymi. Forma internetowa ułatwiła dotarcie do użytkowników realnie korzystających z systemów AI, co może poprawić trafność pozyskiwanych danych. Link do ankiety został udostępniony za pośrednictwem naszych profili w mediach społecznościowych oraz rozesłany wśród członków naszych rodzin. Zastosowany dobór próby miał charakter celowo-wygodny, co oznacza, że w badaniu wzięły udział osoby, które miały dostęp do linku i zdecydowały się dobrowolnie wypełnić ankietę.

Choć metoda ta nie pozwala na reprezentatywność populacji, jest powszechnie stosowana w badaniach eksploracyjnych dotyczących nowych zjawisk technologicznych. Uczestnictwo w badaniu było całkowicie dobrowolne, a ankieta anonimowa. Respondenci mogli przerwać udział na każdym etapie, co zapewniało zgodność badania z podstawowymi zasadami etyki badań społecznych.

Struktura ankiety została uporządkowana tematycznie: od metryczki i pytań dotyczących ogólnego korzystania z narzędzi AI, przez ocenę emocjonalnej personalizacji, po refleksję nad jej konsekwencjami etycznymi. Taki układ minimalizował ryzyko zmęczenia respondentów oraz pozwalał na płynne przechodzenie od kwestii ogólnych do bardziej złożonych.

Ankieta nie zbierała danych osobowych w rozumieniu RODO. Odpowiedzi dotyczyły jedynie opinii i postaw, bez możliwości identyfikacji uczestników. Zmniejsza to ryzyko naruszeń prywatności i sprzyja bardziej szczeremu udzielaniu odpowiedzi.

Zbieranie danych trwało tydzień i ostatecznie uzyskano 53 kompletne odpowiedzi. Taka liczba obserwacji umożliwia przeprowadzenie wstępnej analizy opisowej, pozwalającej na uchwycenie dominujących przekonań i tendencji w badanej grupie. Ze względu na liczbę odpowiedzi oraz sposób doboru próby, badanie ma charakter eksploracyjny i służy przede wszystkim rozpoznaniu kierunków opinii oraz identyfikacji istotnych wątków dotyczących emocjonalnej personalizacji AI.

Źródło: opracowanie własne

 

Dane o badanej grupie

Źródło: opracowanie własne

W badaniu zastosowano podział na pięć grup wiekowych. Zabieg ten miał charakter eksploracyjny. Nie formułowałyśmy z góry żadnych hipotez dotyczących potencjalnych różnic pokoleniowych, lecz chciałyśmy umożliwić ich ewentualne wychwycenie na etapie analizy. Rozkład odpowiedzi okazał się wyraźnie nierównomierny. Najliczniejszą grupę stanowili respondenci w wieku 25–34 lata (68%), a drugą osoby w wieku 18–24 lata (26%). Pozostałe grupy wiekowe były reprezentowane marginalnie.

Taka struktura próby wynika najprawdopodobniej ze sposobu dystrybucji linku do ankiety, który został udostępniony głównie w naszych kanałach społecznościowych oraz kręgu znajomych i rodziny. Z tego względu dane te mają przede wszystkim charakter informacyjny i nie mogą stanowić podstawy do formułowania wniosków o populacji ogólnej ani o rzeczywistych różnicach pokoleniowych w podejściu do emocjonalnej personalizacji AI.

Źródło: opracowanie własne

 

Pod względem płci struktura próby wykazała wyraźną przewagę kobiet, które stanowiły 58% respondentów. Podobnie jak w przypadku wieku, wynika to prawdopodobnie z charakteru dystrybucji ankiety (zarówno link, jak i sieć kontaktów naszych kontaktów były prawdopodobnie bardziej dostępne dla kobiet. W związku z tym wynik ten również należy traktować jako informacyjny.

 

Korzystanie z narzędzi opartych na sztucznej inteligencji

W tej części przedstawiamy rozkład odpowiedzi dotyczących częstotliwości korzystania z narzędzi AI, co pozwala określić, na ile badana grupa ma praktyczne doświadczenie z tego rodzaju technologiami. Informacja ta stanowi istotne tło interpretacyjne dla dalszej analizy (postaw i opinii respondentów), szczególnie w obszarach związanych z rozpoznawaniem emocji, zaufaniem oraz oceną ryzyka manipulacji.

 

Źródło: opracowanie własne

 

Jak wynika z przedstawionych danych, większość respondentów korzysta z narzędzi opartych na sztucznej inteligencji. Jedynie 17% badanych deklaruje, że używa ich rzadziej niż kilka razy w miesiącu, natomiast 6%wskazuje, że nie korzysta z nich w ogóle. Struktura ta jest zgodna z naszymi założeniami i stanowi istotną wartość dla badania, ponieważ uzyskane opinie pochodzą przede wszystkim od użytkowników faktycznie mających kontakt z tego typu technologiami, a nie od osób formułujących poglądy jedynie na poziomie teoretycznym.

 

Rozpoznawanie emocji i dostosowanie się do nich

W kolejnej części, korzystając ze skali Likerta, podjęto próbę zbadania opinii respondentów na temat zdolności sztucznej inteligencji do rozpoznawania emocji użytkowników oraz ocenienia, czy (i w jakim stopniu) akceptują oni możliwość wykorzystania tych informacji do dostosowywania sposobu prowadzenia rozmowy przez system AI.

Źródło: opracowanie własne

W obszarze dotyczącym rozpoznawania emocji przez narzędzia oparte na AI nie zaobserwowano wyraźnej polaryzacji opinii. Pomijając osoby nie posiadające zdania w tym aspekcie odpowiedzi rozłożyły się stosunkowo równomiernie: 41,5% respondentów wyraziło poparcie dla takiej funkcjonalności, natomiast 43,4% było jej przeciwnych. Różnica między tymi grupami mieści się zatem w granicach błędu interpretacyjnego, co sugeruje brak jednoznacznej tendencji w nastawieniu użytkowników. Taki wynik może świadczyć o ambiwalencji wobec technologii ingerujących w sferę emocji.

 

Źródło: opracowanie własne

 

W przypadku oceny funkcji polegającej na dostosowywaniu komunikacji AI do emocji użytkownika rozkład odpowiedzi okazał się wyraźnie bardziej asymetryczny. Tym razem dominowały postawy sceptyczne (56,6% respondentów sprzeciwiało się takim rozwiązaniom, podczas gdy jedynie 34% wyrażało wobec nich aprobatę). Wynik ten sugeruje, że choć samo rozpoznawanie emocji nie budzi jednoznacznego sprzeciwu, to ich aktywne wykorzystywanie w procesie interakcji z użytkownikiem jest postrzegane znacznie bardziej krytycznie. Może to wskazywać na obawy związane z manipulacją, utratą autonomii lub zbytnią ingerencją technologii w sferę emocjonalną.

 

Korzyści i obawy związane z emocjonalną personalizacją AI

W kolejnej części zaczęłyśmy od zadania pytania dotyczącego korzyści z emocjonalną personalizacją AI.

W zależności od udzielonej odpowiedzi, respondenci kierowani byli do dwóch odmiennych ścieżek pytań pogłębiających. Osoby, które zaznaczyły odpowiedź „Tak”, przechodziły do pytania dotyczącego potencjalnych korzyści wynikających z funkcji dostosowywania się AI do emocji użytkownika. Natomiast respondenci wybierający odpowiedź „Nie” byli pytani czy odczuwają obawy wobec tej funkcji. Analogicznie, jeżeli zaznaczyli „Tak”, to byli proszeni o wskazanie źródeł swoich obaw związanych z takim rozwiązaniem, a kolejne „Nie” odsyłało do następnej sekcji kwestionariusza. Możliwe było podzielenie się zarówno opinią na temat korzyści jak i obaw – te opcje się nie wykluczały.

Dzięki temu możliwe było nie tylko określenie ogólnego poziomu poparcia lub sprzeciwu, ale również zidentyfikowanie konkretnych motywacji stojących za stanowiskiem badanych.

Źródło: opracowanie własne

Mniej niż połowa respondentów (47%) wskazała na dostrzegalne korzyści wynikające z emocjonalnej personalizacji narzędzi opartych na sztucznej inteligencji. Co istotne, rozkład odpowiedzi wśród dostępnych opcji był stosunkowo równomierny (żadna z propozycji nie uzyskała wyraźnej przewagi, a wartości oscylowały w granicach 22–25%). Taki rozkład sugeruje, że pozytywne aspekty tego typu funkcjonalności są postrzegane wielowymiarowo, lecz żadna z nich nie stanowi dominującej motywacji. Może to świadczyć o tym, że osoby aprobujące emocjonalną personalizację robią to z różnych, równoważnych powodów, a nie z powodu jednej, szczególnie istotnej korzyści.

Źródło: opracowanie własne

Inaczej przedstawiają się wyniki dotyczące obaw. Aż 81% ankietowanych zadeklarowało, że dostrzega ryzykazwiązane z emocjonalną personalizacją sztucznej inteligencji. Wśród proponowanych odpowiedzi najczęściejwskazywano obawę przed „budowaniem niezdrowych relacji z technologią” (27%). Wynik ten jest szczególnie istotny w kontekście rosnącej dyskusji publicznej na temat potencjalnie niebezpiecznych skutków nadmiernego angażowania się użytkowników w relacje z systemami AI. W ostatnich miesiącach zwracano uwagę na przypadki, w których silne przywiązanie do chatbotów czy asystentów konwersacyjnych wiązało się z poważnymi konsekwencjami psychospołecznymi, w tym z incydentami autodestrukcyjnych zachowań. Choć takie sytuacje są jednostkowe i nie odzwierciedlają ogólnej populacji użytkowników, ich medialny i naukowy rezonans podkreśla znaczenie ostrożności oraz konieczność odpowiedzialnego projektowania systemów zdolnych do symulowania emocjonalnej bliskości.

 

Regulacje prawne

Źródło: opracowanie własne

 

W kwestii regulacji prawnych badana grupa wykazała znacznie większą jednomyślność. Ponad 75%respondentów uznało, że konieczne jest wprowadzenie przepisów ograniczających i kontrolujących rozwój oraz funkcjonowanie sztucznej inteligencji, w tym jej zdolności do emocjonalnej personalizacji. Tak wysoki poziom poparcia sugeruje, że niezależnie od indywidualnych opinii dotyczących korzyści czy zagrożeń, większość badanych dostrzega potrzebę stworzenia jasnych ram prawnych, które zapewniłyby bezpieczeństwo użytkowników i zapobiegały nadużyciom. Wskazuje to na społeczne oczekiwanie, aby rozwój AI nie odbywał się wyłącznie w przestrzeni technologicznej i rynkowej, ale również w ramach odpowiedzialnych regulacji uwzględniających kwestie etyczne, psychologiczne i społeczne.

 

Manipulacja?

Źródło: opracowanie własne

 

Najbardziej jaskrawy okazał się stosunek respondentów do kwestii potencjalnej manipulacji użytkownikiem. Aż 94,4% badanych uznało, że emocjonalna personalizacja AI może zwiększać ryzyko wywierania wpływu na zachowania i decyzje odbiorców. Tak wysoki poziom zgodności wskazuje, że obawy związane z możliwością nadużyć (zwłaszcza subtelnych, trudnych do wykrycia form perswazji) są powszechnie podzielane. Wynik ten podkreśla, że użytkownicy dostrzegają w emocjonalnie reagujących systemach nie tylko potencjał wsparcia, ale także narzędzie, które w nieodpowiednich warunkach mogłoby podważać autonomię, kształtować zachowania czy wzmacniać zależność od technologii.

 

Twój nastrój!

Źródło: opracowanie własne

Na zakończenie kwestionariusza zdecydowałyśmy się zadać pytanie odnoszące się bezpośrednio do samych respondentów. Było to celowe odejście od bardziej ogólnych kwestii, ponieważ w badaniach ankietowych często obserwuje się zjawisko udzielania odpowiedzi „z dystansu” – odnoszenia ocen i obaw do abstrakcyjnych „innych osób”, a nie do własnych doświadczeń. Pytanie miało zatem sprowokować do autorefleksji oraz podsumować wcześniejsze wątki poprzez ich odniesienie do indywidualnego poziomu komfortu.

Otrzymane wyniki wskazują, że ponad połowa badanych deklaruje poczucie dyskomfortu na myśl o tym, że AI mogłaby dostosowywać się do ich emocji. Jednocześnie nieco ponad 20% respondentów uznało, że czułoby się w takim scenariuszu komfortowo. Dysproporcja ta potwierdza wcześniejsze obserwacje dotyczące obaw związanych z ryzykiem manipulacji i nadmiernej ingerencji technologii w sferę emocjonalną użytkownika, a jednocześnie ukazuje, że część badanych dostrzega w emocjonalnej personalizacji także potencjał pozytywnych doświadczeń.

Krótkie podsumowanie naszego badania

Podsumowując, wyniki badania pokazują, że emocjonalna personalizacja AI wzbudza wśród użytkowników mieszane uczucia: z jednej strony dostrzegane są potencjalne korzyści, z drugiej dominują obawy związane z prywatnością, manipulacją i nadmierną ingerencją technologii w życie emocjonalne. Badani wyraźnie wskazują na potrzebę regulacji i ostrożnego projektowania takich systemów, co podkreśla znaczenie podejścia odpowiedzialnego zarówno technologicznie, jak i etycznie.

 

Podsumowanie

Przeprowadzone przez nas badanie wnosi cenny, choć wstępny, głos do dyskusji nad emocjonalną personalizacją sztucznej inteligencji. Jednocześnie warto podkreślić, że temat ten jest stosunkowo nowy, a dotychczasowych badań,  zarówno ilościowych, jak i jakościowych, jest niewiele. Nasze wyniki wypełniają więc fragment luki badawczej, ale też wyraźnie wskazują, jak wiele pozostaje jeszcze do zrozumienia. Wraz z szybkim rozwojem modeli konwersacyjnych i systemów zdolnych do analizowania emocji, potrzeba pogłębionych, systematycznych badań staje się szczególnie pilna.

Dane te sugerują również, że przyszłe badania powinny brać pod uwagę nie tylko ogólne opinie, ale także indywidualne doświadczenia użytkowników, ich poziom kompetencji technologicznych oraz kontekst korzystania z AI. W naszej ocenie kluczowe będzie także śledzenie realnych konsekwencji społecznych, od zmian w sposobach komunikacji po wpływ na dobrostan psychiczny.

Mimo że nasze badanie ma charakter eksploracyjny, wnosi ważny sygnał: użytkownicy są świadomi złożoności emocjonalnej interakcji z AI i oczekują zarówno transparentności, jak i odpowiedzialności twórców technologii. To dobry moment, by zacząć zadawać trudniejsze pytania zanim systemy zdolne do odczytywania i modulowania emocji staną się powszechnie obecne w codziennym życiu.

 

Bibliografia

  • Bar, A. (2024). Emocje w świecie sztucznej inteligencji. O systemach rozpoznawania emocji w świetle Aktu o sztucznej inteligencji uwag kilka. Facta Simonidis, 17(3), 255–270. https://doi.org/10.56583/fs.2593

  • Ekman, P., & Friesen, W. V. (1971). Constants Across Cultures in the Face and Emotion. Journal of Personality and Social Psychology, 17(2), 124–129. https://doi.org/10.1037/h0030377 SCIRP+1

  • Ingber, A. S., Haimson, O., & Andalibi, N. (2025). Distinguishing Emotion AI: Factors Shaping Perceptions Including Input Data, Emotion Data Recipients, and Identity. W materiałach konferencyjnych: ACM Conference on Fairness, Accountability, and Transparency 2025 (FAccT ’25). https://doi.org/10.1145/3715275.3732034 PMC

  • Singh, S., Singh, A., & Kaur, B. (2025). Emotion detection through facial expressions: A survey of AI-based methods.International Journal on Science and Technology (IJSAT), 16(1), 1–10.

  • Stark, L., & Hoey, J. (2021). The ethics of emotion in artificial intelligence systems. W materiałach konferencyjnych: Proceedings of the ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21), 782–794. https://doi.org/10.1145/3442188.3445939

  • Zuboff, S. (2015). Big other: Surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, 30(1), 75–89. https://doi.org/10.1057/jit.2015.5


Leave a comment