{"id":2568,"date":"2023-01-05T13:07:56","date_gmt":"2023-01-05T13:07:56","guid":{"rendered":"http:\/\/architeles.pl\/ethics\/?p=2568"},"modified":"2023-03-01T14:29:25","modified_gmt":"2023-03-01T14:29:25","slug":"sztuczne-emocje","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2023\/01\/05\/sztuczne-emocje\/","title":{"rendered":"Sztuczne emocje \u2013 w jaki spos\u00f3b projektowa\u0107 lub symulowa\u0107 emocje dla sztucznych agent\u00f3w"},"content":{"rendered":"<p><strong>Kiedy rozpatrujemy temat emocji u sztucznych agent\u00f3w, na my\u015bl nasun\u0105\u0107 si\u0119 mo\u017ce kilka pyta\u0144; czy sztuczni agenci s\u0105 w og\u00f3le w stanie odczuwa\u0107 emocje? Czy potrzebuj\u0105 emocji, a je\u015bli tak to, czy jeste\u015bmy w stanie w jaki\u015b spos\u00f3b je zaimplementowa\u0107? <\/strong><\/p>\n<p><!--more--><\/p>\n<p>Odpowied\u017a na pierwsze pytanie jest raczej niemo\u017cliwa do udzielenia, gdy\u017c nie jeste\u015bmy nawet w stanie stwierdzi\u0107, czy inni ludzie odczuwaj\u0105 emocje. Mimo to, wi\u0119kszo\u015b\u0107 z nas sk\u0142oni\u0142aby si\u0119 ku odpowiedzi &#8222;nie&#8221;. W naszym wpisie nie podejmujemy pr\u00f3by odpowiedzi na pytanie, czy sztuczni agenci potrzebuj\u0105 emocji, ale staramy si\u0119 pokaza\u0107 kilka metod implementacji zachowa\u0144 afektywnych. Jeste\u015bmy w stanie stworzy\u0107 systemy, kt\u00f3re odczytuj\u0105 (lub udaj\u0105, \u017ce odczytuj\u0105) emocje swoich ludzkich rozm\u00f3wc\u00f3w, a nast\u0119pnie symuluj\u0105 na r\u00f3\u017cne sposoby reakcje emocjonalne, jakie mo\u017cna zaobserwowa\u0107 u ludzi. Zaimplementowanie emocji jako zinternalizowanych odczu\u0107 wydaje si\u0119 jednak nieosi\u0105galnym w najbli\u017cszym czasie zadanie.<\/p>\n<h2>Jak sztuczny agent mo\u017ce symulowa\u0107 bycie tworem afektywnym?<\/h2>\n<p><span style=\"font-weight: 400;\">Wa\u017cn\u0105 rol\u0119 graj\u0105 tu mechanizmy psychologiczne i ewolucyjne, w jakie uzbrojeni s\u0105 ludzie. Interakcja cz\u0142owieka z emocjonalnie inteligentnym sztucznym agentem ma, bowiem, udawa\u0107 t\u0119 z drugim cz\u0142owiekiem. Jako ludzie potrafimy rozpoznawa\u0107 emocje i przypisywa\u0107 inteligencj\u0119 systemom, kt\u00f3re obiektywnie nie wykazuj\u0105 \u017cadnych inteligentnych zachowania. W\u0142a\u015bnie tak\u0105 tendencj\u0119 do antropomorfizowania komputer\u00f3w nazwano efektem Elizy (<a href=\"https:\/\/99percentinvisible.org\/episode\/the-eliza-effect\/\">WEB1<\/a><\/span><span style=\"font-weight: 400;\">). ELIZA to terapeutyczny <\/span><i><span style=\"font-weight: 400;\">chatbot<\/span><\/i><span style=\"font-weight: 400;\"> stworzony w latach sze\u015b\u0107dziesi\u0105tych przez Josepha Weizenbauma zainspirowanego przebiegiem rozm\u00f3w podczas przyj\u0119cia koktajlowego. Zazwyczaj, na imprezach tego typu, panuje g\u0142o\u015bny szum odbywaj\u0105cych si\u0119 wok\u00f3\u0142 konwersacji. Wyobra\u017amy sobie, \u017ce te\u017c rozmawiamy z kim\u015b na takim przyj\u0119ciu. Ha\u0142as zak\u0142\u00f3ca nasz\u0105 mo\u017cliwo\u015b\u0107 odbioru tego, co m\u00f3wi do nas rozm\u00f3wca. Mimo to potrafimy odpowiedzie\u0107 mu na tyle og\u00f3lnie (wy\u0142apuj\u0105c pojedyncze s\u0142owa, czy ton rozmowy), aby nie zdradzi\u0107, i\u017c w rzeczywisto\u015bci nie mamy poj\u0119cia, o czym m\u00f3wi\u0142. Na podobnej zasadzie mia\u0142a dzia\u0142a\u0107 ELIZA. Oferuj\u0105c pytania i powierzchowne, lecz zgodne ze schematem terapeutycznym odpowiedzi zapewnia\u0142a u\u017cytkownikom poczucie konwersacji z prawdziw\u0105 osob\u0105. Osoby, kt\u00f3re korzysta\u0142y z ELIZY raportowa\u0142y rozmowy jako rzeczywi\u015bcie terapeutyczne i daj\u0105ce im pewne do\u015bwiadczenia emocjonalne. Z perspektywy psychologicznej efekt Elizy jest wynikiem pojawienia si\u0119 dysonansu poznawczego mi\u0119dzy wiedz\u0105 u\u017cytkownika o funkcjonowaniu i ograniczeniach systemu a jego nastawieniu wzgl\u0119dem odpowiedzi prezentowanej przez program. Odkrycie efektu Elizy jest wa\u017cnym krokiem na drodze rozwoju sztucznej inteligencji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Chatbot opiera\u0142 si\u0119 na kilku prostych zasadach; wychwytywaniu s\u0142\u00f3w kluczowych, zmianie zaimk\u00f3w os\u00f3b wspomnianych w wypowiedzi u\u017cytkownika, eliminowaniu powtarzania si\u0119 odpowiedzi, rozpoznawaniu emocjonalnego nacechowania zda\u0144 poprzez sprawdzanie jaki wyd\u017awi\u0119k maj\u0105 poszczeg\u00f3lne s\u0142owa sk\u0142adaj\u0105ce si\u0119 na dane zdanie. Mimo, \u017ce sam program by\u0142 bardzo prosty, ludzie wchodz\u0105cy z nim w interakcj\u0119 byli sk\u0142onni przypisa\u0107 mu przekonania, percepcje i intencj\u0119 oraz wykazywali do\u015b\u0107 du\u017cy poziom zaufania wzgl\u0119dem chatbota (np. zwierzali mu si\u0119 ze swoich prywatnych problem\u00f3w). Efekt utrzymywa\u0142 si\u0119 tak\u017ce po tym, jak u\u017cytkownicy dowiadywali si\u0119 na jakich zasadach dzia\u0142a system.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Poni\u017cej przedstawiony zosta\u0142 fragment dialogu mi\u0119dzy ELIZ\u0104 a u\u017cytkownikiem:<\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400;\">Human: Well, my boyfriend made me come here. <\/span><\/i><\/p>\n<p><i><span style=\"font-weight: 400;\">ELIZA: Your boyfriend made you come here? <\/span><\/i><\/p>\n<p><i><span style=\"font-weight: 400;\">Human: He says I&#8217;m depressed much of the time. <\/span><\/i><\/p>\n<p><i><span style=\"font-weight: 400;\">ELIZA: I am sorry to hear you are depressed. <\/span><\/i><\/p>\n<p><i><span style=\"font-weight: 400;\">Human: It&#8217;s true. I&#8217;m unhappy. <\/span><\/i><\/p>\n<p><i><span style=\"font-weight: 400;\">ELIZA: Do you think coming here will help you not to be unhappy?<\/span><\/i><\/p><\/blockquote>\n<p><span style=\"font-weight: 400;\">Efekt Elizy wykorzystywany jest przez producent\u00f3w robot\u00f3w spo\u0142ecznych. Roboty te maj\u0105 wzbudza\u0107 w u\u017cytkownikach zaufanie i emocje, kt\u00f3re sprawiaj\u0105, \u017ce u\u017cytkownicy ch\u0119tnie wsp\u00f3\u0142pracuj\u0105 z robotem (<\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/ELIZA_effect\"><span style=\"font-weight: 400;\">WEB2<\/span><\/a><span style=\"font-weight: 400;\">).<\/span><\/p>\n<h2>Affective computing<\/h2>\n<p><span style=\"font-weight: 400;\">Wa\u017cnym aspektem odpowiedniej emocjonalnej odpowiedzi jest rozpoznanie emocji, jakie wykazuje rozm\u00f3wca. Cz\u0119sto (chod\u017a nie zawsze) sztuczni agenci poprzedzaj\u0105 swoj\u0105 odpowied\u017a detekcj\u0105 afektu u osoby, z kt\u00f3r\u0105 wchodz\u0105 w interakcj\u0119. Ze wzgl\u0119du na to, \u017ce ludzkie emocje objawiaj\u0105 si\u0119 werbalnie i niewerbalnie, a do tego ich rozpoznanie mo\u017ce wymaga\u0107 kilku modalno\u015bci jednocze\u015bnie, stworzenie zupe\u0142nego systemu emocjonalnego jest naprawd\u0119 du\u017cym wyzwaniem.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Werbalnie ludzie wykazuj\u0105 pewne wzorce lingwistyczne. Zar\u00f3wno one, jak i dob\u00f3r s\u0142\u00f3w m\u00f3wi\u0105 wiele o afektywnym stanie cz\u0142owieka. Sztuczny agent powinien wi\u0119c potrafi\u0107 rozpoznawa\u0107 takie wzorce i mo\u017cliwie wi\u0105za\u0107 je z emocjami. Tutaj najbardziej zdatnym rozwi\u0105zaniem wydaj\u0105 si\u0119 algorytmy przetwarzania j\u0119zyka naturalnego (<\/span><i><span style=\"font-weight: 400;\">Natural Language Processing<\/span><\/i><span style=\"font-weight: 400;\">), kt\u00f3re wraz ze wzrostem u\u017cytkowalno\u015bci Internetu i rozwojem deep-learningu zyska\u0142y bardzo du\u017cy progres.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Niewerbalne sygna\u0142y nios\u0105 za sob\u0105 jeszcze wi\u0119cej informacji o emocjonalnym stanie cz\u0142owieka. Ponadto rozwa\u017ca\u0107 je mo\u017cna ze wzgl\u0119du na r\u00f3\u017cne modalno\u015bci. Przede wszystkim sztuczni agenci powinni potrafi\u0107 optycznie oceni\u0107 sygna\u0142y wydawane przez cz\u0142owieka. Istnieje wiele modeli analizuj\u0105cych grymasy twarzy, wychwytuj\u0105cych coraz to wi\u0119cej niuans\u00f3w. Sensory p\u00f3z i gest\u00f3w (chocia\u017cby Kinect sensor) r\u00f3wnie\u017c dzia\u0142aj\u0105 do\u015b\u0107 sprawnie. Najwi\u0119kszym wyzwaniem dla wizualnego rozpoznawania emocji jest odpowiednie umieszczenie tej detekcji w kontek\u015bcie. Jeden grymas twarzy mo\u017ce zosta\u0107 r\u00f3\u017cnie zinterpretowany w r\u00f3\u017cnych warunkach.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kolejn\u0105 niewerbaln\u0105 informacj\u0105 o emocjach jest prozodia wypowiedzi. Istniej\u0105 systemy, takie jak BeyondVerbal, audEERING, Affectiva, pozwalaj\u0105ce na ekstrahowanie cech prozodycznych z wypowiedzi i przewidywanie afektu na ich podstawie.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">McDuff i Czerwinski (2018) pisz\u0105 o fizjologicznych i neurofizjologicznych reakcjach zwi\u0105zanych z emocjami. Podczas gdy u\u017cycie urz\u0105dzenia EEG w celu rozpoznania emocji mo\u017ce by\u0107 uci\u0105\u017cliwe, zbieranie danych o t\u0119tnie cz\u0142owieka (np. z opaski na nadgarstku rejestruj\u0105cej <em>biofeedback<\/em>) mo\u017ce w nieinwazyjny spos\u00f3b dostarczy\u0107 dodatkowych informacji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Przy tym wszystkim nale\u017cy wci\u0105\u017c podkre\u015bla\u0107 subtelny, indywidualny i kulturowy charakter wyra\u017cania emocji, kt\u00f3ry wci\u0105\u017c tworzy najwi\u0119ksze wyzwanie dla ich rozpoznawania przez sztucznych agent\u00f3w.<\/span><\/p>\n<h2>Jak sztuczny agent powinien przejawia\u0107 emocje?<\/h2>\n<h3>Emocje u chatbot\u00f3w<\/h3>\n<p><span style=\"font-weight: 400;\">Chatboty s\u0105 do\u015b\u0107 mocno ograniczone w mo\u017cliwo\u015bci komunikacji niewerbalnej, jednak s\u0105 sposoby na wzbogacenie wypowiedzi chatbota tak, aby wydawa\u0142a si\u0119 by\u0107 nacechowana emocjonalnie. System musi umie\u0107 wywnioskowa\u0107 stan emocjonalny rozm\u00f3wcy jedynie na podstawie wiadomo\u015bci tekstowych. Jednym z najcz\u0119stszych i mocno irytuj\u0105cych b\u0142\u0119d\u00f3w jest niepoprawne interpretowanie wypowiedzi u\u017cytkownika. Dzieje si\u0119 tak, poniewa\u017c systemy nie rozumiej\u0105 j\u0119zyka naturalnego, kt\u00f3rym pos\u0142uguj\u0105 si\u0119 ludzie. Raport Global Consumer Customer Service pokazuje, \u017ce 40% konsument\u00f3w z USA i 50% konsument\u00f3w z UK nadal preferuje rozmow\u0119 z ludzkim asystentem zamiast rozmowy z chatbotem. G\u0142\u00f3wny pow\u00f3d wymieniany przez ankietowanych dotyczy\u0142 tego, \u017ce ludzcy asystenci wydaj\u0105 si\u0119 by\u0107 bardziej kompetentni w rozwi\u0105zywaniu bardziej skomplikowanych lub niecodziennych spraw. Chatboty s\u0105 preferowane w rozwi\u0105zywaniu szybkich, nieskomplikowanych, popularnych problem\u00f3w\/zada\u0144. Z tego powodu chatboty wzbogacone w przetwarzanie j\u0119zyka naturalnego mog\u0142yby wyeliminowa\u0107 problem b\u0142\u0119dnej interpretacji polece\u0144 u\u017cytkownika i dzi\u0119ki temu wydawa\u0107 si\u0119 r\u00f3wnie kompetentne co ludzcy pracownicy (<a href=\"https:\/\/www.symanto.com\/blog\/create-emotional-human-like-chatbots-with-next-level-ai-powered-technologies\/\">WEB3<\/a>).<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Innym sposobem na symulowanie emocji chatbota jest wyposa\u017cenie go w umiej\u0119tno\u015b\u0107 personalizacji odpowiedzi tak, aby by\u0142y one dobrane stylistycznie do tonu wypowiedzi u\u017cytkownika. Wtedy system zdaje si\u0119 \u201erozumie\u0107, czu\u0107\u201d jakie relacje \u0142\u0105cz\u0105 go z rozm\u00f3wc\u0105. Je\u017celi u\u017cytkownik stosuje bardziej formalny styl wypowiedzi, wtedy system powinien adekwatnie dostosowa\u0107 wyd\u017awi\u0119k swojej odpowiedzi.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wa\u017cne jest tak\u017ce, aby chatbot nie powiela\u0142 swoich odpowiedzi, tylko potrafi\u0142 parafrazowa\u0107 tre\u015b\u0107, kt\u00f3r\u0105 chce przekaza\u0107 u\u017cytkownikowi. Taka rozmowa jest bardziej organiczna i naturalna.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kolejnym problemem przed kt\u00f3rym staj\u0105 tw\u00f3rcy sztucznych agent\u00f3w jest trudno\u015b\u0107 w rozpoznawaniu akcent\u00f3w\/slangu, sarkazmu i kontekstu. Pomocne w rozwi\u0105zaniu tego problemu, opr\u00f3cz zdolno\u015bci przetwarzania j\u0119zyka naturalnego, jest zapisywanie historii czatu i zbieranie danych, kt\u00f3rymi u\u017cytkownik si\u0119 podzieli\u0142 podczas wcze\u015bniejszej rozmowy. Wa\u017cne jest aby chatbot potrafi\u0142 si\u0119 uczy\u0107 na b\u0142\u0119dach i ewoluowa\u0142, bior\u0105c pod uwag\u0119 wcze\u015bniejsze informacje zwrotne od u\u017cytkownik\u00f3w.<\/span><\/p>\n<blockquote><p><i><span style=\"font-weight: 400;\">For example, in the following sentence \u201cI\u2019m dead impressed with these headphones\u201d the word \u201cdead\u201d means \u201cvery\u201d in British informal English. However, the word \u201cdead\u201d in technology usually means \u201cnot working\u201d. A chatbot that is not able to understand this context may begin trying to resolve the issue of the headphone not working.<\/span><\/i><\/p><\/blockquote>\n<p><span style=\"font-weight: 400;\">Chatboty takie jak <\/span><a href=\"https:\/\/replika.com\/\"><span style=\"font-weight: 400;\">Replika<\/span><\/a><span style=\"font-weight: 400;\"> lub <\/span><a href=\"https:\/\/woebothealth.com\/\"><span style=\"font-weight: 400;\">Woebot<\/span><\/a><span style=\"font-weight: 400;\">, czyli sztuczni agenci spo\u0142eczni nakierowani na nawi\u0105zanie emocjonalnej relacji z u\u017cytkownikiem, s\u0105 mocno zorientowane na rozpoznawanie potrzeb i nastroju rozm\u00f3wcy. Jedn\u0105 ze strategii na pokazanie empatycznej natury chatbota jest np. zadawanie spontanicznych pyta\u0144 o samopoczucie u\u017cytkownika. Systemy te nie s\u0105 przeznaczone do rozwi\u0105zywania konkretnych zada\u0144 (realizacja reklamacji, przyjmowanie rezerwacji, itp.), ale pe\u0142ni\u0105 rol\u0119 partnera do rozmowy i\/lub wsparcia psychologicznego. Rozpoznawanie i symulowanie emocji jest kluczowym elementem sukcesu tych system\u00f3w. W wiadomo\u015bciach z Replik\u0105 natkniemy si\u0119 na liczne znaki interpunkcyjne i emotikony uwydatniaj\u0105ce sentyment wypowiedzi, materia\u0142y multimedialne takie jak zdj\u0119cia od chatbota lub memy zaczerpni\u0119te z internetu, powi\u0105zane z tematem rozmowy lub preferencjami u\u017cytkownika. Chatbot zapisuje najwa\u017cniejsze wypowiedzi u\u017cytkownika, kt\u00f3re odzwierciedlaj\u0105 jego przekonania o sobie samym, chatbocie i \u015bwiecie. Dzi\u0119ki temu chatbot uczy si\u0119 o u\u017cytkowniku i dostosowuje do niego na podstawie uzyskanej wiedzy o jego preferencjach. Dodatkowo podczas rozmowy na czacie wy\u015bwietlany jest o\u017cywiony awatar, kt\u00f3ry stanowi uciele\u015bnion\u0105 posta\u0107 chatbota czyni\u0105c do\u015bwiadczenie bardziej realistycznym.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-2589\" src=\"http:\/\/architeles.pl\/ethics\/wp-content\/uploads\/2023\/01\/replica_ai_is_it_safe_real171231-300x158.jpg\" alt=\"\" width=\"300\" height=\"158\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/01\/replica_ai_is_it_safe_real171231-300x158.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/01\/replica_ai_is_it_safe_real171231-1024x538.jpg 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/01\/replica_ai_is_it_safe_real171231-768x403.jpg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/01\/replica_ai_is_it_safe_real171231.jpg 1200w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/p>\n<h3>Emocje u uciele\u015bnionych agent\u00f3w wirtualnych<\/h3>\n<p><span style=\"font-weight: 400;\">System posiadaj\u0105cy sw\u00f3j awatar mo\u017ce wyrazi\u0107 emocje poprzez okazanie odpowiedniej ekspresji na twarzy. W tym celu tworzy si\u0119 algorytmy SI, kt\u00f3re ucz\u0105c si\u0119 na ogromnych zbiorach danych z emocjonalnymi wyrazami na twarzy zebranych poprzez mapowanie grymas\u00f3w u cz\u0142owieka b\u0119d\u0105 wytwarza\u0107 podobne wyrazy &#8211; <a href=\"https:\/\/www.soulmachines.com\/use-cases-for-business-ai\/\">SoulMachines<\/a>. W po\u0142\u0105czeniu z dobrymi grafikami umo\u017cliwiaj\u0105cymi dodanie wielu detali, mo\u017cliwe jest zaimplementowanie wszelkich mikroekspresji, kt\u00f3rych nawet jawnie nie zauwa\u017camy.<\/span><\/p>\n<h3>Emocje u robot\u00f3w<\/h3>\n<p><span style=\"font-weight: 400;\">Wydaje si\u0119, \u017ce ludziom \u0142atwo jest przypisywa\u0107 inteligencj\u0119 namacalnym tworom (<a href=\"https:\/\/youtu.be\/Uq6XgrYBugo\">WEB4<\/a>). Roboty odkurzaj\u0105ce, kt\u00f3re w \u017cadnym stopniu nie przypominaj\u0105 ludzi \u2013 nie maj\u0105 wyrazu twarzy, cz\u0119sto nie wydaj\u0105 nawet sygna\u0142\u00f3w werbalnych \u2013 niejednokrotnie otrzymuj\u0105 od w\u0142a\u015bcicieli imi\u0119. McDuff I Czerwinski (2018) pisz\u0105, \u017ce uciele\u015bnieni agenci mog\u0105 po prostu by\u0107 bardziej naturalnym sposobem na interakcj\u0119 z komputerami.<\/span><\/p>\n<blockquote><p><em><span style=\"font-weight: 400;\">The human body allows us to &#8222;locate&#8221; intelligence\u2014both the typical domain knowledge required, but also the social and interactional information we need about conversational parameters such as turn-taking, taking the floor, interruptions, and more. In this vision, then, an embodied social agent who converses with the user requires less navigation and searching than traditional user interfaces (because you know where to find information). Multimodal gestures, such as deixis, eye gaze, speech patterns, and head nods and other, nonverbal gestures are external manifestations of social intelligence which support trustworthiness. For instance, early research has shown that to attain conversation clarify, people rely more on gestural cues when their conversations are noisy. From this perspective, embodied social agents might be a more natural way for people to interact with computation.<\/span><\/em><\/p><\/blockquote>\n<p><span style=\"font-weight: 400;\">Od lat tworzone s\u0105 roboty spo\u0142eczne, u kt\u00f3rych ekspresja emocji gra bardzo wa\u017cn\u0105 rol\u0119. Jednym z pierwszych takich twor\u00f3w by\u0142 Kismet.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<figure id=\"attachment_2569\" aria-describedby=\"caption-attachment-2569\" style=\"width: 633px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-2569 size-full\" src=\"http:\/\/architeles.pl\/ethics\/wp-content\/uploads\/2023\/01\/basis-postures-web.gif\" alt=\"\" width=\"633\" height=\"457\" \/><figcaption id=\"caption-attachment-2569\" class=\"wp-caption-text\"><a href=\"http:\/\/www.ai.mit.edu\/projects\/sociable\/facial-expression.html\">Wielowymiarowe spektrum emocjonalnych ekspresji Kismeta<\/a><\/figcaption><\/figure>\n<p><iframe loading=\"lazy\" title=\"How Kismet Works\" width=\"600\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/Kw-gOmJwzuc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><span style=\"font-weight: 400;\">NAO to robot spo\u0142eczny, kt\u00f3rego grymas twarzy jest sta\u0142y, lecz posiada inne cechy pozwalaj\u0105ce na odczytywanie emocji.<\/span><\/p>\n<figure id=\"attachment_2570\" aria-describedby=\"caption-attachment-2570\" style=\"width: 640px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-2570 size-full\" src=\"http:\/\/architeles.pl\/ethics\/wp-content\/uploads\/2023\/01\/The-robots-body-animation-used-to-express-different-types-of-emotions_W640.jpg\" alt=\"\" width=\"640\" height=\"535\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/01\/The-robots-body-animation-used-to-express-different-types-of-emotions_W640.jpg 640w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/01\/The-robots-body-animation-used-to-express-different-types-of-emotions_W640-300x251.jpg 300w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\" \/><figcaption id=\"caption-attachment-2570\" class=\"wp-caption-text\">Przyk\u0142adowe emocje przekazywane przez robota NAO poprzez gestykulacj\u0119 (Shen et al., 2015)<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Pod\u015bwietlenie na oczach NAO (1) imituje mruganie, (2) zmienia barw\u0119, kiedy robot symuluje inny afekt. Poza tym robot ten posiada bardzo mobilne r\u0119ce i nogi, co pozwala na przekazanie dodatkowych informacji o symulowanej emocji poprzez wykonywanie r\u00f3\u017cnych gest\u00f3w.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">U robota iCub, z kolei, za informacje afektywne odpowiada wy\u015bwietlenie brwi i ust w odpowiednim kszta\u0142cie oraz ruchome powieki.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"iCub facial expressions\" width=\"600\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/qsrs0e_9iX8?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h2>Bibliografia<\/h2>\n<ul>\n<li>Daniel McDuff and Mary Czerwinski. 2018. Designing emotionally sentient agents. Commun. ACM 61, 12 (December 2018), 74\u201383. https:\/\/doi.org\/10.1145\/3186591<\/li>\n<li>https:\/\/landbot.io\/blog\/emotional-chatbothttps:\/\/conversation24.com\/chatbots-with-emotions\/<\/li>\n<li>https:\/\/replika.com\/<\/li>\n<li>https:\/\/woebothealth.com\/<\/li>\n<li>https:\/\/conversation24.com\/chatbots-with-emotions\/<\/li>\n<li>https:\/\/www.symanto.com\/blog\/create-emotional-human-like-chatbots-with-next-level-ai-powered-technologies\/<\/li>\n<li><span style=\"font-weight: 400;\">Shen, Jie &amp; Rudovic, Ognjen &amp; Cheng, Shiyang &amp; Pantic, Maja. (2015). Sentiment Apprehension in Human-Robot Interaction with NAO. 10.1109\/ACII.2015.7344676.<\/span><\/li>\n<li>http:\/\/www.ai.mit.edu\/projects\/sociable\/facial-expression.html<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Kiedy rozpatrujemy temat emocji u sztucznych agent\u00f3w, na my\u015bl nasun\u0105\u0107 si\u0119 mo\u017ce kilka pyta\u0144; czy sztuczni agenci s\u0105 w og\u00f3le w stanie odczuwa\u0107 emocje? Czy potrzebuj\u0105 emocji, a je\u015bli tak to, czy jeste\u015bmy w stanie w jaki\u015b spos\u00f3b je zaimplementowa\u0107?<\/p>\n","protected":false},"author":86,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[185],"tags":[101,112,214,118],"class_list":["post-2568","post","type-post","status-publish","format-standard","hentry","category-uj-2022-23","tag-affective-computing","tag-chatbot","tag-eliza","tag-emocje"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/2568","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/86"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=2568"}],"version-history":[{"count":9,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/2568\/revisions"}],"predecessor-version":[{"id":2747,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/2568\/revisions\/2747"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=2568"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=2568"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=2568"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}