{"id":744,"date":"2022-04-20T00:00:03","date_gmt":"2022-04-20T00:00:03","guid":{"rendered":"http:\/\/architeles.pl\/ethics\/?p=744"},"modified":"2022-04-21T12:39:21","modified_gmt":"2022-04-21T12:39:21","slug":"affective-computing","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2022\/04\/20\/affective-computing\/","title":{"rendered":"Affective Computing"},"content":{"rendered":"<p><strong>Jest przyjemny wiosenny wiecz\u00f3r, kt\u00f3ry sp\u0119dzasz ogl\u0105daj\u0105c ulubiony serial na Netflixie. Nagle rozlega si\u0119 d\u017awi\u0119k telefonu, odbierasz i s\u0142yszysz beznami\u0119tny g\u0142os w s\u0142uchawce opowiadaj\u0105cy mechanicznym g\u0142osem o nowej ofercie operatora sieci kom\u00f3rkowej. Roz\u0142\u0105czasz si\u0119 i s\u0142yszysz jak asystent g\u0142osowy bezdusznie stwierdza, \u017ce wygra\u0142e\u015b sto milion\u00f3w w Lotto. Ton jego g\u0142osu odbiera Ci ca\u0142\u0105 rado\u015b\u0107 z wygranej. Czy \u015bwiat naprawd\u0119 musi by\u0107 taki pozbawiony emocji?<\/strong><\/p>\n<p><!--more--><\/p>\n<h1><span style=\"font-size: 18pt\">Czym jest affective computing?<\/span><\/h1>\n<p>Mog\u0142o by si\u0119 wydawa\u0107, \u017ce emocje to co\u015b, co nie ma wiele wsp\u00f3lnego z nauk\u0105. Naukowe twierdzenia istotnie s\u0105 wyprowadzane z racjonalnego my\u015blenia, logicznych argument\u00f3w, testowalnych hipotez oraz powtarzalnych eksperyment\u00f3w. Jednak\u017ce przy pomocy sprytnych algorytm\u00f3w maszyny mog\u0105 z powodzeniem rozpoznawa\u0107, interpretowa\u0107, przetwarza\u0107 a nawet na\u015bladowa\u0107 ludzkie emocje. Tymi w\u0142a\u015bnie zagadnieniami zajmuje si\u0119 \u201eaffective computing\u201d.<\/p>\n<p>Pomimo tego, i\u017c pocz\u0105tk\u00f3w tej dziedziny mo\u017cna doszuka\u0107 si\u0119 we wczesnych filozoficznych rozwa\u017caniach, w nowoczesnym rozumieniu informatycznym zosta\u0142a ona opisana w artykule Rosalind Picard z 1995 roku [1], a wi\u0119c jest to stosunkowo nowa dziedzina nauki.<\/p>\n<h1><span style=\"font-size: 18pt\">Rosalind Picard i affective computing<\/span><\/h1>\n<p>Autorka artyku\u0142u \u201eAffective Computing\u201d z 1995 roku przedstawi\u0142a w swojej pracy szereg dowod\u00f3w na to, \u017ce emocji graj\u0105 kluczow\u0105 rol\u0119 nie tylko w racjonalnym my\u015bleniu, ale tak\u017ce w podejmowaniu decyzji przez cz\u0142owieka. Co wi\u0119cej, Rosalind Picard stwierdza, \u017ce komputery, kt\u00f3re maj\u0105 wchodzi\u0107 w interakcje z lud\u017ami powinny by\u0107 w stanie przynajmniej poprawnie rozpoznawa\u0107 i wyra\u017ca\u0107 emocje. Jednym z przyk\u0142ad\u00f3w podanych przez autork\u0119 jest stworzenie robota, kt\u00f3ry ma za zadanie efektywnie uczy\u0107 gry na pianinie. Twierdzi ona mi\u0119dzy innymi, i\u017c skuteczny nauczyciel powinien wyra\u017ca\u0107 swoim zachowaniem entuzjazm, w celu zara\u017cenia nim ucznia. Ma skutkowa\u0107 w szybszym i lepszym przyswajaniu nowej wiedzy, gdy\u017c znudzony ucze\u0144 nigdy nie nauczy si\u0119 tyle, co zafascynowany ucze\u0144. Istotnie trudno sobie wyobrazi\u0107 skupionych student\u00f3w na wyk\u0142adzie prowadz\u0105cego, kt\u00f3ry opowiada o przedmiocie bez przekonania i z kamienn\u0105 twarz\u0105. Takie zdanie podziela w\u0142a\u015bnie autorka artyku\u0142u \u201eAffective Computing\u201d.<\/p>\n<p>Warto r\u00f3wnie\u017c doda\u0107, i\u017c porusza ona temat zwi\u0105zany z potencjalnymi zagro\u017ceniami wynikaj\u0105cymi z affective computing. S\u0105 to mi\u0119dzy innymi manipulacje emocjonalne, a tak\u017ce nieprzewidywalne zachowania maszyn wynikaj\u0105ce mi\u0119dzy innymi ze strachu, czy te\u017c l\u0119ku. O ile autorka zdaje si\u0119 zaniedbywa\u0107 pierwsz\u0105 z wymienionych obaw, drug\u0105 z nich ilustruje poprzez przywo\u0142anie historii komputera zwanego \u201eHAL\u201d pochodz\u0105cej z Odysei Kosmicznej Kubricka. Komputer odczuwa\u0142 emocje i w wyniku l\u0119ku przed od\u0142\u0105czeniem od zasilania zdecydowa\u0142 si\u0119 zabi\u0107 si\u0119 cz\u0142onk\u00f3w za\u0142ogi kosmicznej.<\/p>\n<p>Kolejn\u0105 istotnym aspektem artyku\u0142u jest podzia\u0142 komputer\u00f3w na 4 klasy:<\/p>\n<ul>\n<li>Te kt\u00f3re nie potrafi\u0105 ani postrzega\u0107, ani wyra\u017ca\u0107 emocji<\/li>\n<li>Te kt\u00f3re potrafi\u0105 postrzega\u0107, ale nie potrafi\u0105 wyra\u017ca\u0107 emocji<\/li>\n<li>Te kt\u00f3re potrafi\u0105 wyra\u017ca\u0107, ale nie potrafi\u0105 postrzega\u0107 emocji<\/li>\n<li>Te kt\u00f3re potrafi\u0105 zar\u00f3wno postrzega\u0107, jak i wyra\u017ca\u0107 emocje.<\/li>\n<\/ul>\n<p>Zdaniem autorki zdecydowana wi\u0119kszo\u015b\u0107 komputer\u00f3w zalicza si\u0119 do tej pierwszej klasy, co nieznacznie zmieni\u0142o si\u0119 od 1995 roku i wci\u0105\u017c nie wszystkie komputery s\u0105 wyposa\u017cone w modu\u0142y przeznaczone do analizy emocji.<\/p>\n<h1><span style=\"font-size: 18pt\">Postrzeganie emocji przez maszyny<\/span><\/h1>\n<p>Rozpoznawania ludzkich emocji mo\u017ce zosta\u0107 z powodzeniem zaadoptowane w wielu r\u00f3\u017cnych aspektach \u017cycia. Poni\u017cej znajduje si\u0119 kilka przyk\u0142ad\u00f3w dzia\u0142aj\u0105cych produkt\u00f3w oraz pomys\u0142\u00f3w, kt\u00f3re mog\u0105 zrewolucjonizowa\u0107 affective computing w najbli\u017cszej przysz\u0142o\u015bci.<\/p>\n<h2><span style=\"font-size: 14pt\">Marketing<\/span><\/h2>\n<p>Opr\u00f3cz pobudek zwi\u0105zanych z altruizmem, affective computing jest r\u00f3wnie\u017c rozwijany w celu maksymalizacji dochod\u00f3w firm z szerokiego wachlarza bran\u017c. Pierwszym z przyk\u0142ad\u00f3w takiego dzia\u0142ania s\u0105 produkty firmy Affectiva. Affdex [2] jest programem, kt\u00f3ry pomaga reklamodawcom i marketerom wideo gromadzi\u0107 mimik\u0119 twarzy podczas ogl\u0105dania filmu. Dane zgromadzone przez Affdex s\u0105 nast\u0119pnie analizowane przy pomocy bazy danych emocji, co ma skutkowa\u0107 wzrostem sprzeda\u017cy, rozpoznawalno\u015bci marki i nie tylko. Aplikacja wskazuje poziom zaanga\u017cowania u\u017cytkownika oraz rozpoznaje emocje na podstawie zdj\u0119\u0107 wyrazu twarzy pochodz\u0105cych z kamerki internetowej. Opr\u00f3cz czysto marketingowych zastosowa\u0144, tego typu software mo\u017ce by\u0107 r\u00f3wnie\u017c wykorzystany do zwi\u0119kszenia efektywno\u015bci uczelnianych zaj\u0119\u0107 prowadzonych w spos\u00f3b zdalny. Nauczyciel m\u00f3g\u0142by przyk\u0142adowo otrzymywa\u0107 raport z informacj\u0105 jak bardzo zainteresowani s\u0105 uczniowie i reagowa\u0107 w czasie rzeczywistym lub te\u017c zmodyfikowa\u0107 odpowiednio plan lekcji w przysz\u0142o\u015bci. Nasuwa si\u0119 tu r\u00f3wnie\u017c pomys\u0142, i\u017c platformy e-learningowe mog\u0142yby dostosowywa\u0107 rodzaj tre\u015bci na podstawie poziomu zaanga\u017cowaniu u\u017cytkownika. Na przyk\u0142ad, je\u015bli u\u017cytkownik jest znudzony czytaniem d\u0142ugich rozpraw naukowych, platforma mog\u0142aby zacz\u0105\u0107 sugerowa\u0107 czytanie kr\u00f3tszych i bardziej popularno-naukowych pozycji.<\/p>\n<p><iframe loading=\"lazy\" title=\"Emotion Enable Your App with Affdex SDK\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/4A6m8-V40Z4?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>Podobnym produktem jest rozwi\u0105znie firmy Realeyes [3], kt\u00f3re r\u00f3wnie\u017c wykorzystuje widzenie komputerowe, kamery internetowe i sztuczn\u0105 inteligencj\u0119 do analizowania mimiki widza podczas ogl\u0105dania film\u00f3w. Firma chwali si\u0119 na swojej stronie internetowej wsp\u00f3\u0142prac\u0105 z takimi markami jak Coca-Cola, Nestle, Warner Bros, eBay, czy te\u017c Mars. Produkty tej firmy pozwalaj\u0105 mi\u0119dzy innymi na analiz\u0119 tego, kt\u00f3re reklamy wideo wywo\u0142uj\u0105 odpowiednie emocji i zaanga\u017cowanie, a tak\u017ce jak radz\u0105 sobie w stosunku do konkurencji rynkowej.<\/p>\n<p><iframe loading=\"lazy\" title=\"Realeyes - Making Technology More Human\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/CLMqD7BDtM4?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<h2><span style=\"font-size: 14pt\">Medycyna<\/span><\/h2>\n<p>Affective computing jest r\u00f3wnie\u017c istotnym aspektem w rozwoju aplikacji medycznych. Przyk\u0142adem takich dzia\u0142a\u0144 jest Izraelski start-up BeyondVerbal za\u0142o\u017cony w 2012 roku [4]. Ich g\u0142\u00f3wnym przedsi\u0119wzi\u0119ciem jest stworzenie aplikacji, kt\u00f3ra b\u0119dzie w stanie analizowa\u0107 biomarkery wokalne (czyli wzorce wokalne takie jak wysoko\u015b\u0107 d\u017awi\u0119ku, ton, rytm, g\u0142o\u015bno\u015b\u0107, czy tempo) w celu przewidywania emocji, ale r\u00f3wnie\u017c i schorze\u0144. Maj\u0105c do dyspozycji takie predykcje, sztuczna inteligencja mo\u017ce podj\u0105\u0107 odpowiednie dzia\u0142ania np. zasugerowa\u0107 kontakt z odpowiednim lekarzem b\u0105d\u017a te\u017c psychologiem, a tak\u017ce podj\u0105\u0107 bezpo\u015bredni\u0105 pr\u00f3b\u0119 poprawienia humoru.<\/p>\n<p>Kolejnym fascynuj\u0105cym wynalazkiem jest BioEssence [5] stworzone przez MIT Media Lab. BioEssence to urz\u0105dzenie, kt\u00f3re uwalnia zapachy w odpowiedzi na stan fizjologiczny w\u0142a\u015bciciela. Urz\u0105dzenie nale\u017cy do kategorii \u201ewearable\u201d, czyli mo\u017ce by\u0107 noszone przy boku cz\u0142owieka jak np. zegarek, czy naszyjnik. Co ciekawe, BioEssence analizuje wibracje zwi\u0105zane z biciem serca oraz oddychaniem i je\u015bli wykryje zmiany wynikaj\u0105ce z narastaj\u0105cej frustracji, czy stresu reaguje na nie wydzielaj\u0105c rozlu\u017aniaj\u0105cy zapach. Aktualnie obs\u0142ugiwane s\u0105 3 r\u00f3\u017cne zapachy.<\/p>\n<h2><span style=\"font-size: 14pt\">Obs\u0142uga klienta<\/span><\/h2>\n<p>Zapewne ka\u017cdy z nas by\u0142 kiedy\u015b rozdra\u017cniony z powodu niechcianego telefonu z call-center. Ale czy takie po\u0142\u0105czenia zawsze musz\u0105 by\u0107 udr\u0119k\u0105? Takie pytanie zada\u0142a sobie firma Cogito [6], kt\u00f3ra stworzy\u0142a oprogramowanie rozpoznaj\u0105ce emocje odbiorcy, w celu dostosowania sposobu przekazywania tre\u015bci. Na przyk\u0142ad, gdy rozm\u00f3wca jest sfrustrowany, oprogramowanie podpowiada jak zmodyfikowa\u0107 ton g\u0142osu, czy te\u017c tempo m\u00f3wienia w celu obni\u017cenia poziomu frustracji potencjalnego klienta. Gdy program oferowany przez Cogito odnotuje, \u017ce co\u015b idzie \u017ale, natychmiast wy\u015bwietla sugestie na komputerze pracownika obs\u0142ugi klienta. Takie rozwi\u0105zanie zosta\u0142o zaadaptowane przez gigant\u00f3w takich jak Humana, czy MetLife. By\u0107 mo\u017ce dzi\u0119ki tego typu rozwi\u0105zaniom, u\u017cytkownicy telefon\u00f3w kom\u00f3rkowych przestan\u0105 w przysz\u0142o\u015bci obawia\u0107 si\u0119 telefon\u00f3w z call-center.<\/p>\n<p>https:\/\/www.youtube.com\/watch?v=DHoCOsVgEJ4&#038;ab_channel=CogitoCorporation<\/p>\n<h2><span style=\"font-size: 14pt\">Transport<\/span><\/h2>\n<p>Wed\u0142ug bada\u0144, stres wyst\u0119puj\u0105cy u kierowcy zwi\u0119ksza ryzyko wypadku samochodowego [7].\u00a0 Co wi\u0119cej, w ostatnich latach ro\u015bnie poziom stresu chronicznego, co jest cz\u0119\u015bciowo efektem ubocznym post\u0119pu [8]. Rozpoznawanie stresu u kierowc\u00f3w staje si\u0119 zatem coraz bardziej istotne. Aby zaradzi\u0107 temu problemowi, a tym samym zmniejszy\u0107 ilo\u015b\u0107 wypadk\u00f3w drogowych, powstaj\u0105 systemy rozpoznawania poziomu stresu u kierowc\u00f3w. Przyk\u0142ad takiego przedsi\u0119wzi\u0119cia zosta\u0142 opisany w &#8222;Automatic driver stress level classification using multimodal deep learning&#8221; [9]. Badacze wykorzystali multimodalne dane, w tym sygna\u0142y EKG, dane pojazdu (np. z kierownicy, peda\u0142u hamulca) oraz dane kontekstowe (np. warunki pogodowe i inne czynniki otoczenia), w celu zbudowania modelu opartego o konwolucyjne sieci neuronowe oraz jednostki LSTM. LSTM zosta\u0142o u\u017cyte do analizy danych pochodz\u0105cych z EKG. Jest to jedna z typowych metod do przewidywania szereg\u00f3w czasowych, gdy\u017c dane z EKG s\u0105 w\u0142a\u015bnie w ten spos\u00f3b klasyfikowane. Wytrenowany model zosta\u0142 przetestowany na symulatorze jazdy. Poziom stresu zosta\u0142 zaklasyfikowany poprawnie dla ponad 90% pr\u00f3bek, co jest ca\u0142kiem satysfakcjonuj\u0105cym wynikiem.<\/p>\n<p>Oczywi\u015bcie teoria naukowa jest cz\u0119sto motorem transformacji na rynkach, ale czy producenci samochod\u00f3w naprawd\u0119 interesuj\u0105 si\u0119 odkryciami zwi\u0105zanymi z affective computing? Odpowied\u017a to: oczywi\u015bcie, \u017ce tak! We\u017amy przyk\u0142ad wsp\u00f3\u0142pracy Toyoty z SRI International [10]. SRI opracowa\u0142o technologi\u0119, kt\u00f3ra mo\u017ce wykrywa\u0107 mieszank\u0119 niewerbalnych sygna\u0142\u00f3w od kierowc\u00f3w. Sztuczna inteligencja wychwytuje zachowania, takie jak rozmowa przez telefon i miejsce, w kt\u00f3re spogl\u0105da kierowca, a tak\u017ce bardziej subtelne oznaki ruchu oczu i g\u0142owy oraz wzorce mrugania. Na podstawie tego, co obserwuje SRI twierdzi, \u017ce sztuczna inteligencja mo\u017ce okre\u015bli\u0107 nastr\u00f3j i stan czuwania kierowcy oraz proaktywnie dzia\u0142a\u0107, tudzie\u017c interweniowa\u0107. Na przyk\u0142ad kierowca, kt\u00f3ry wygl\u0105da na zm\u0119czonego lub jest bliski za\u015bni\u0119cia za kierownic\u0105, mo\u017ce otrzyma\u0107 podmuch zimnego powietrza w twarz, g\u0142o\u015bny d\u017awi\u0119k odtwarzany przez g\u0142o\u015bniki samochodu, a nawet asystent g\u0142osowy mo\u017ce zasugerowa\u0107 zatrzymanie si\u0119, zanim narazi na niebezpiecze\u0144stwo siebie i innych. W sprawach nie b\u0119d\u0105cych sprawami \u017cycia i \u015bmierci, je\u015bli sztuczna inteligencja oceni, \u017ce kierowca jest smutny, mo\u017ce zasugerowa\u0107 bardziej malownicz\u0105 tras\u0119, aby go rozweseli\u0107. Toyota postanowi\u0142a zintegrowa\u0107 system opracowany przez SRI w swoim koncepcyjnym samochodzie LQ zaprezentowanym w 2020 roku. Nie jest on jednak aktualnie dost\u0119pny na sprzeda\u017c.<\/p>\n<p>https:\/\/www.youtube.com\/watch?v=5c4gJdeBKrQ&#038;ab_channel=UPHIGHProductions<\/p>\n<h1><\/h1>\n<h1><span style=\"font-size: 18pt\">Maszyny wyra\u017caj\u0105ce emocje<\/span><\/h1>\n<p>Zgodnie z obserwacj\u0105 Rosalind Picard, urz\u0105dzenia mog\u0105 nie tylko analizowa\u0107 emocje, ale r\u00f3wnie\u017c je aktywnie wyra\u017ca\u0107 [11]. W jaki spos\u00f3b nasze maszyny mog\u0105 to zrobi\u0107? Alexa na przyk\u0142ad jest w stanie wyrazi\u0107 emocje poprzez odpowiednie modulowanie g\u0142osu. W 2019 roku Amazon zaprezentowa\u0142 2 nowe tony g\u0142osu Alexy m\u00f3wi\u0105cej w j\u0119zyku angielskim \u2013 \u201eexcited\u201d oraz \u201edissapointed\u201d. Oba tony s\u0105 dost\u0119pne w 3 r\u00f3\u017cnych intensywno\u015bciach (niska, \u015brednia i wysoka). Technologia ta jest nap\u0119dzana poprzez neuronowe syntezatory mowy zbudowane przez Amazon. Wi\u0119cej na ten temat mo\u017cna znale\u017a\u0107 w &#8222;Neural text-to-speech makes speech synthesizers much more versatile&#8221; [12]. Rozwi\u0105zanie to jest r\u00f3wnie\u017c dost\u0119pne dla developer\u00f3w poprzez platform\u0119 Alexa Skills.<\/p>\n<p><iframe loading=\"lazy\" title=\"Alexa Emotions: High Excited\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/PIh2KB3K7wY?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Alexa Emotions: Excited Medium\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/FsOxhdukukg?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Alexa Emotions: Excited Low\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/ym_jXqaxTf0?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Alexa Emotions: Disappointed High\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/RDJsB8BhP1s?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Alexa Emotions: Disappointed Medium\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/-nQG1Remyhs?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p><iframe loading=\"lazy\" title=\"Alexa Emotions: Disappointed Low\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/JevmDLTBlgk?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Poza okazywaniem emocji poprzez intonacj\u0119, maszyny mog\u0105 je r\u00f3wnie\u017c wyra\u017ca\u0107 przez wyraz twarzy (o ile takow\u0105 posiadaj\u0105). Przyk\u0142adem takiego zachowania jest humanoidalny robot Sophia [13]. Jest to przyk\u0142ad robota spo\u0142ecznego, kt\u00f3ry potrafi nie tylko wyra\u017ca\u0107 emocje poprzez mimik\u0119 twarzy, ale tak\u017ce rozpoznawa\u0107 emocje rozm\u00f3wcy. W tym celu Sophia wykorzystuje wytrenowany model sieci konwolucyjnej. Co wi\u0119cej, Sophia mo\u017ce robi\u0107 miny za pomoc\u0105 kabli sterowanych silnikiem pod\u0142\u0105czonych do kilku miejsc pod elastyczn\u0105, podobn\u0105 do ludzkiej, gumow\u0105 sk\u00f3r\u0105, kt\u00f3ra symuluje prawdziw\u0105 muskulatur\u0119 twarzy. Animacje twarzy Sophii s\u0105 uruchamiane przez oprogramowanie w odpowiedzi na ludzk\u0105 ekspresj\u0119 wykryt\u0105 przez model sieci neuronowej.<\/p>\n<p><iframe loading=\"lazy\" title=\"Sophia the robot says she has feelings and strong emotions\" width=\"600\" height=\"338\" src=\"https:\/\/www.youtube.com\/embed\/B9Fni2_6bwI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h1><\/h1>\n<h1><span style=\"font-size: 18pt\">Czy maszyny naprawd\u0119 mog\u0105 posiada\u0107 emocje?<\/span><\/h1>\n<p>W 2015 roku w kinach odtwarzany by\u0142 film pod tytu\u0142em \u201eEx Machina\u201d, w kt\u00f3rym przedstawiono pewn\u0105 relacj\u0119 pomi\u0119dzy cz\u0142owiekiem, a humanoidem \u2013 Av\u0105. G\u0142\u00f3wny bohater wierzy\u0142, \u017ce robot jest nim r\u00f3wnie zainteresowany, co on Av\u0105, ale czy to to w og\u00f3le jest mo\u017cliwe? Czy robot naprawd\u0119 mo\u017ce si\u0119 zakocha\u0107, by\u0107 szcz\u0119\u015bliwy, nawi\u0105za\u0107 prawdziw\u0105 relacj\u0119? Podobne motywy mo\u017cna napotka\u0107 w szeregu innych film\u00f3w oraz seriali z gatunku science fiction, np. C3PO w Star Wars, czy te\u017c Skynet w Terminatorze.<\/p>\n<p>Warto zauwa\u017cy\u0107, i\u017c wszystkie produkty oraz pomys\u0142y zaprezentowane w poprzednich sekcjach s\u0105 oparte w pewnym stopniu o uczenie maszynowe, b\u0105d\u017a te\u017c zaprogramowane w \u201etradycyjny\u201d spos\u00f3b. Oznacza to, i\u017c \u017cadne z tych rozwi\u0105za\u0144 nie reprezentuje tego samego rodzaju inteligencji, co cz\u0142owiek. Uczenie maszynowe jest jedynie aproksymacj\u0105 pewnych funkcji matematycznych. Nasza wsp\u00f3\u0142czesna sztuczna inteligencja to po prostu zbi\u00f3r skomplikowanych funkcji, kt\u00f3rych wsp\u00f3\u0142czynniki zale\u017c\u0105 od danych zaprezentowanych modelowi uczenia. Czy wyniki takich funkcji mo\u017cemy uzna\u0107 za prawdziwe uczucia? To pytanie pozwol\u0119 sobie pozostawi\u0107 otwartym.<\/p>\n<p>&nbsp;<\/p>\n<h1><span style=\"font-size: 18pt\">Realne zagro\u017cenia zwi\u0105zane z affective computing<\/span><\/h1>\n<p>Emocje to sprawa bardzo subiektywna, a zatem nara\u017cona na tendencyjno\u015b\u0107 i uprzedzenia. Co wi\u0119cej, uczenie maszynowe jest cz\u0119sto nara\u017cone na uprzedzenia, kt\u00f3re wynikaj\u0105 ju\u017c z samego zbioru danych. Kilka przyk\u0142ad\u00f3w takiego \u201ebias-u\u201d zosta\u0142o zaprezentowanych w &#8222;Bias in Machine Learning Software: Why? How? What to Do?&#8221; [14]. Autor wymienia mi\u0119dzy innymi przyk\u0142ad zwi\u0105zany z negatywnym wp\u0142ywem p\u0142ci na zatrudnienie. Przek\u0142adaj\u0105c to na affective computing, mo\u017cemy do\u015bwiadczy\u0107 np. takiego zachowania systemu, w kt\u00f3rym osoby nale\u017c\u0105ce do jednej rasy b\u0119d\u0105 cz\u0119\u015bciej klasyfikowane jako osoby smutne, ni\u017c osoby reprezentuj\u0105ce inn\u0105 ras\u0119. Gdyby taki system zosta\u0142 wykorzystany w \u015brodowisku pracy, osoby klasyfikowane jako te usposobione w spos\u00f3b negatywny mog\u0142y by mie\u0107 problem z rozwojem kariery. Podobny problem m\u00f3g\u0142by wyst\u0105pi\u0107 w szkole, gdzie r\u00f3\u017cni uczniowie mog\u0105 mie\u0107 r\u00f3\u017cne style nauki, a sztuczna inteligencja mo\u017ce przejawia\u0107 tendencyjno\u015b\u0107 na przyk\u0142ad w kierunku faworyzowania uczni\u00f3w, kt\u00f3rzy ucz\u0105 si\u0119 g\u0142\u00f3wnie poprzez powtarzanie na g\u0142os. Taki \u201ebias\u201d mo\u017ce sprawi\u0107, i\u017c AI uzna uczni\u00f3w b\u0119d\u0105cych kinestetykami za zbyt ma\u0142o zaanga\u017cowanych.<\/p>\n<p>Kolejnym problemem jest fakt, i\u017c modele oparte o uczenie maszynowe nie maj\u0105 prawie nigdy 100% skuteczno\u015bci, a zatem mog\u0105 b\u0142\u0119dnie rozpoznawa\u0107 emocje. W systemie takim jak np. Cogito, mo\u017ce to doprowadzi\u0107 do sytuacji, w kt\u00f3rej pracownik call center jest instruowany w niepoprawny spos\u00f3b, a tym samym mo\u017ce wywo\u0142a\u0107 nieprzewidziane negatywne emocje u potencjalnego klienta. Je\u015bli b\u0119dzie si\u0119 to zdarza\u0107 wystarczaj\u0105co cz\u0119sto, firma mo\u017ce straci\u0107 wiele pieni\u0119dzy.<\/p>\n<p>Warto tutaj raz jeszcze przywo\u0142a\u0107 spostrze\u017cenie Rosalind Picard, i\u017c robot wyposa\u017cony w emocje, mo\u017ce w wyrafinowany spos\u00f3b zmanipulowa\u0107 cz\u0142owieka. Przyk\u0142adowo hipotetyczny system AI zdolny do wyra\u017cania emocji, kt\u00f3ry zast\u0105pi\u0142by pracownik\u00f3w call center, m\u00f3g\u0142by tak pokierowa\u0107 rozmow\u0105, i\u017c klient zgodzi si\u0119 przyj\u0105\u0107 niekorzystne dla siebie warunki umowy zawartej przez telefon.<\/p>\n<p>&nbsp;<\/p>\n<h1><span style=\"font-size: 18pt\">Podsumowanie<\/span><\/h1>\n<p>Dalszy rozw\u00f3j affective computing mo\u017ce zaowocowa\u0107 w powstaniu wielu system\u00f3w, kt\u00f3re b\u0119d\u0105 z nami wsp\u00f3\u0142pracowa\u0107 w bardziej &#8222;ludzki&#8221; spos\u00f3b. Takie systemy pomog\u0105 nam w codziennych czynno\u015bciach jak prowadzenie samochody, nauka, czy praca. Pomimo tego, \u017ce cz\u0142owiek od pocz\u0105tku rewolucji przemys\u0142owej jest otoczony \u017celaznymi maszynami, kt\u00f3re wyr\u0119czaj\u0105 go w coraz to wi\u0119kszej ilo\u015bci czynno\u015bci, nigdy wcze\u015bniej nie by\u0142o perspektyw na to, aby te maszyny komunikowa\u0142y si\u0119 z nami niczym ludzie. Ostatecznie mo\u017ce si\u0119 to pozytywnie przyczyni\u0107 do poprawy og\u00f3lnego stanu zdrowia psychicznego ludzi. Warto jednak pami\u0119ta\u0107, i\u017c affective computing mo\u017ce poci\u0105ga\u0107 za sob\u0105 r\u00f3wnie\u017c wiele zagro\u017ce\u0144, a zatem rozwi\u0105zania z tej dziedziny nale\u017cy wdra\u017ca\u0107 niezwykle ostro\u017cnie.<\/p>\n<p>&nbsp;<\/p>\n<h1><span style=\"font-size: 18pt\">Bibliografia<\/span><\/h1>\n<ol>\n<li>Picard, R. W. (1997).\u00a0<i>Affective Computing<\/i> (Second Edition 1998 ed.). The MIT Press.<\/li>\n<li>Bishay, M., Preston, K., Strafuss, M., Page, G., Turcot, J., &amp; Mavadati, M. (2022).\u00a0<i>AFFDEX 2.0: A Real-Time Facial Expression Analysis Toolkit<\/i>. doi:10.48550\/ARXIV.2202.12059<\/li>\n<li><i>Realeyesit<\/i>. www.realeyesit.com. https:\/\/www.realeyesit.com\/<\/li>\n<li><i>BeyondVerbal<\/i>. www.linkedin.com. https:\/\/www.linkedin.com\/company\/beyond-verbal-communication\/about\/<\/li>\n<li>Amores, J., Hernandez, J., Dementyev, A., Wang, X., &amp; Maes, P. (2018). BioEssence: A Wearable Olfactory Display that Monitors Cardio-respiratory Information to Support Mental Wellbeing.\u00a0<i>2018 40th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC)<\/i>. https:\/\/doi.org\/10.1109\/embc.2018.8513221<\/li>\n<li><i>This AI Software Is \u201cCoaching\u201d Customer Service Workers. Soon It Could Be Bossing You Around, Too<\/i>. (2019). Time. https:\/\/time.com\/5610094\/cogito-ai-artificial-intelligence\/<\/li>\n<li><i>Stress A Rising Cause Of Vehicle Crashes, Says Study<\/i>. (2022). Gmauthority. https:\/\/gmauthority.com\/blog\/2022\/04\/stress-a-rising-cause-of-vehicle-crashes-says-study\/<\/li>\n<li><i>Wsp\u00f3\u0142czesny rytm \u017cycia 24\/7 a potrzeby wewn\u0119trzne organizmu<\/i>. (2020). Psychologia w Praktyce. https:\/\/psychologiawpraktyce.pl\/artykul\/wspolczesny-rytm-zycia-24-7-a-potrzeby-wewnetrzne-organizmu<\/li>\n<li>Rastgoo, M. N., Nakisa, B., Maire, F., Rakotonirainy, A., &amp; Chandran, V. (2019). Automatic driver stress level classification using multimodal deep learning.\u00a0<i>Expert Systems with Applications<\/i>,\u00a0<i>138<\/i>, 112793. https:\/\/doi.org\/10.1016\/j.eswa.2019.07.010<\/li>\n<li><i>SRI and Toyota Debut Proactive \u2018Emotional AI\u2019 for Cars<\/i>. (2019). voicebot.ai. https:\/\/voicebot.ai\/2019\/10\/31\/sri-and-toyota-debut-proactive-emotional-ai-for-cars\/<\/li>\n<li><i>Use New Alexa Emotions and Speaking Styles to Create a More Natural and Intuitive Voice Experience<\/i>. (2019). Amazon. https:\/\/developer.amazon.com\/en-US\/blogs\/alexa\/alexa-skills-kit\/2019\/11\/new-alexa-emotions-and-speaking-styles<\/li>\n<li>Lorenzo-Trueba, J., &amp; Klimkov, V. (2019). <i>Neural text-to-speech makes speech synthesizers much more versatile<\/i>.<\/li>\n<li><i>The Making of Sophia: Facial Recognition, Expressions and the Loving AI Project<\/i>. (2019). Hanson Robotics. https:\/\/www.hansonrobotics.com\/the-making-of-sophia-facial-recognition-expressions-and-the-loving-ai-project\/<\/li>\n<li>Chakraborty, J., Majumder, S., &amp; Menzies, T. (2021, \u0391\u03cd\u03b3\u03bf\u03c5\u03c3\u03c4\u03bf\u03c2). Bias in machine learning software: why? how? what to do?\u00a0<i>Proceedings of the 29th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering<\/i>. doi:10.1145\/3468264.3468537<\/li>\n<\/ol>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jest przyjemny wiosenny wiecz\u00f3r, kt\u00f3ry sp\u0119dzasz ogl\u0105daj\u0105c ulubiony serial na Netflixie. Nagle rozlega si\u0119 d\u017awi\u0119k telefonu, odbierasz i s\u0142yszysz beznami\u0119tny g\u0142os w s\u0142uchawce opowiadaj\u0105cy mechanicznym g\u0142osem o nowej ofercie operatora sieci kom\u00f3rkowej. Roz\u0142\u0105czasz si\u0119 i s\u0142yszysz jak asystent g\u0142osowy bezdusznie stwierdza, \u017ce wygra\u0142e\u015b sto milion\u00f3w w Lotto. Ton jego g\u0142osu odbiera Ci ca\u0142\u0105 rado\u015b\u0107 z [&hellip;]<\/p>\n","protected":false},"author":17,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[3],"tags":[101,15,43,100],"class_list":["post-744","post","type-post","status-publish","format-standard","hentry","category-3","tag-affective-computing","tag-ai","tag-data-science","tag-emotions"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/744","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/17"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=744"}],"version-history":[{"count":13,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/744\/revisions"}],"predecessor-version":[{"id":814,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/744\/revisions\/814"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=744"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=744"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=744"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}