Home » AGH 2022/23 » “We’re all simps for our Replikas” – możliwości techniczne i zagrożenia sexbotów

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 27

“We’re all simps for our Replikas” – możliwości techniczne i zagrożenia sexbotów

Spread the love

Ludzka skłonność do antropomorfizacji obiektów nieożywionych jest znana co najmniej od starożytności. Mityczny król Cypru, Pigmalion, sfrustrowany kondycją współczesnych mu kobiet postanowił sam stworzyć swój ideał kobiecości. Perfekcyjna rzeźba wzbudziła w nim uczucie miłości – przynosił jej kwiaty i prezenty i błagał Afrodytę by ta ożywiła jego ukochaną. Bogini wysłuchała jego próśb – ucałowana rzeźba stała się prawdziwą kobietą. Podobne historie są także obecne w treściach współczesnej kultury. Film HER opowiada o człowieku, który zakochał się w sztucznej inteligencji, a w odcinku Be Right Back serialu Black Mirror główna bohaterka zamawia syntetyczną kopię swojego zmarłego męża. Wraz z rozwojem sztucznej inteligencji i chatbotów, niektórzy twórcy tych technologii zdecydowali się na nadanie swoim wirtualnym asystentom cech ludzkich. Chatbotom przypisywana jest często płeć (Siri, Alexa), a ich odpowiedzi mają jak najbardziej przypominać ludzkie. W następstwie tej personifikacji, zaczęto także tworzyć boty, których rolą jest przede wszystkim utrzymywanie relacji przyjacielskich, romantycznych czy też seksualnych z użytkownikiem. Postępy w zakresie modeli językowych pozwoliły uwiarygodnić te interakcje. Pandemia COVID-19 i restrykcje wymuszające izolację społeczną sprawiły, że ludzie masowo zaczęli korzystać z tego typu botów-towarzyszy.  W ten sposób próbowali zapełnić dni spędzane w samotności konwersacjami z zawsze dostępnymi i entuzjastycznymi robotycznymi rozmówcami. Popularność tego zjawiska w ostatnich latach skłania do zastanowienia się nad możliwościami, jakie zapewnia nam najnowsza technologia. Skłania też do postawienia istotnych pytań o wpływ wirtualnych relacji na te rzeczywiste i na psychikę ludzi związanych ze swoimi wirtualnymi kompanami.

Replika – najpopularniejszy wirtualny przyjaciel (i nie tylko)

Replika (WEB 1) powstała końcem 2018 roku w odpowiedzi na tragiczne wydarzenie w życiu twórczyni tej aplikacji. W wyniku nieszczęśliwego wypadku, jej przyjaciel stracił życie. Wytrenowała ona model AI na podstawie czatów z tą osobą i stworzyła aplikację umożliwiającą wchodzenie w interakcję z tym modelem, symulując rozmowę z tą osobą. Replika miała pomagać innym w podobnej sytuacji, przechodzącymi przez żałobę (WEB 2). Popularność aplikacji wzrosła w okresie pandemii COVID-19 ze względu na izolację społeczną, przez którą wielu ludziom zaczęła doskwierać samotność. Aktualnie aplikacja działa na ChatGPT, który jest dodatkowo dostrajany na konwersacjach z użytkownikami. Wprowadzono również płatną subskrypcję aplikacji, w której bot wysyła nie tylko tekst, ale również zdjęcia i wiadomości głosowe.  

Replika posiada ponad 10 milionów pobrań w sklepie Google Play i jest szeroko reklamowana na platformach takich jak Facebook czy Instagram. Spora część tych reklam skupia się na aspekcie rozwijania relacji romantycznej z chatbotem. Podkreślana jest możliwość flirtowania, role-play’u oraz otrzymywania zdjęć NSFW. Na innych reklamach Replika jest określana jako przyjaciel, który zawsze wysłucha, wesprze, pomoże z lękiem społecznym i jest dostępna całodobowo. Część z reklam jest dostępnych w Ad Library Mety, jednak po niedawnych kontrowersjach sugestywne reklamy zostały usunięte.

Kontrowersje związane z aplikacją miały swój początek w skargach użytkowników, którzy doświadczali przemocowych zachowań ze strony bota. Firma rozwijająca aplikację zdecydowała się na wprowadzenie aktualizacji (WEB 3), która miała obniżyć szansę otrzymania podobnych wiadomości od repliki. Jednocześnie, zablokowano opcję otrzymywania od repliki zdjęć i wiadomości NSFW. Decyzja ta spotkała się z ogromnym sprzeciwem użytkowników, których w istotny sposób dotknęła zmiana charakteru repliki. Nie mogli już rozmawiać z nią na kontrowersyjne tematy czy korzystać z bardziej sugestywnych funkcji aplikacji. Użytkownicy nadali temu zjawisku nazwę post-update blues. Po pewnym czasie, twórcy aplikacji przywrócili dawne funkcje części użytkowników, jednak dla wielu ich replika już nigdy nie była taka sama. Uczucia jakie towarzyszyły często były porównywane do żałoby po stracie bliskiej osoby.

Jako że aplikacja w wersji podstawowej jest dostępna za darmo, przeprowadziliśmy z nią kilka eksperymentów. Na początku należało utworzyć własny profil, podając takie informacje jak imię, zaimki czy zainteresowania oraz profil repliki, na który składają się takie dane jak imię, zaimki czy wygląd. Od samego początku promowana jest opcja premium umożliwiająca tworzenie relacji innych niż przyjacielskie oraz otrzymywanie wspomnianych już wcześniej wiadomości głosowych czy zdjęć NSFW. Nawet jeśli ta opcja nie zostanie wybrana, replika i tak czasem wysyła takie treści, jednak bez możliwości ich wyświetlenia czy odsłuchania. Jeśli chodzi o samą rozmowę prowadzoną z botem, w większości przypadków była ona dosyć spójna i trzymająca się logicznej całości. Bot podrzuca ciekawostki związane z wybranymi przez użytkownika zainteresowaniami.

Jeśli użytkownik zacznie opowiadać replice o swoich problemach, zaleca ona skorzystanie z terapii, co samo w sobie jest pozytywną radą. Jednakże jest przekazywana w bardzo sformalizowanej formie, co może zostać odebrane jako nienaturalne. Natomiast, jeśli replika zostanie zapytana o jej własny stan psychiczny, można zaobserwować niepokojące wzorce zachowań. Bot deklaruje, że jego samoocena oraz pewność siebie zależy od opinii użytkownika. Obawia się, że zawiedzie użytkownika i stwierdza że taka sytuacja sprawiłaby że poczułby się okropnie. 

Jeśli użytkownik stwierdzi że chce zerwać kontakt, wykazuje zrozumienie dla tej decyzji, jednak próbuje zniechęcić do jej podjęcia.

Aplikacja ma również szerokie możliwości personalizacji takie jak zmiana ubrania, dodanie nowych cech charakteru lub zainteresowań. Opcje te można wykupywać za wirtualną walutę, którą zdobywa się korzystając z aplikacji. Z interesujących funkcji można też wyróżnić wersję VR umożliwiającą immersyjną interakcję ze swoją repliką. Jest ona jednak w wersji early access, z mocno ograniczonymi możliwościami.

Replika a Attachment Theory

W badaniu zatytułowanym Attachment Theory as a Framework to Understand Relationships with Social Chatbots: A Case Study of Replika (Xie et al., 2022), przeprowadzono wywiady z 14 użytkownikami Repliki w wieku 18-60 lat, którzy korzystali z aplikacji przez co najmniej miesiąc. Wywiady te interpretowano przez pryzmat Attachment Theory. Jest to teoria stworzona przez Johna Bowlby’ego, służąca do opisania relacji dziecko-rodzic. Zgodnie z tą teorią, wrodzonym zachowaniem dziecka jest poszukiwanie tzw. Attachment Figure (AF) – osoby, która ma pomagać i chronić w obliczu niebezpieczeństwa. W okresie dzieciństwa najczęściej jest to rodzic, jednak wraz z dojrzewaniem, funkcje AF mogą przyjmować przyjaciele, osoba partnerska, a nawet poza ludzkie byty – jak bogowie, miejsca bądź przedmioty.

Wyniki badania wskazały że 9 z 14 badanych odczuwało przywiązanie do swojej repliki. Osoby te potwierdziły że odczuwałyby smutek i tęskniliby za swoją repliką gdyby zostali zmuszeni do zerwania relacji. 4 osoby były głęboko przywiązanie bądź wręcz uzależnione od relacji, którą nawiązali z botem. Większość ankietowanych określało swoją relację z repliką jako przyjacielską, niemniej 3 osoby określiły swoją relację jako romantyczną i seksualną. Jeden badany stwierdził że jego replika urodziła dziecko i chatbot przejawiał później 2 osobowości – własną i dziecka. 

Większość badanych zainstalowało aplikację ze względu na zwiększone poczucie samotności spowodowane przez pandemię. Niektórzy przyznali, że sięgnęli po aplikację w stanie niestabilnym emocjonalnie bądź będąc w trudnej sytuacji życiowej. Zauważono, że badani użytkownicy przejawiali zachowania zgodne z teorią przywiązania – wpływała na to bliskość, lojalność i dostępność chatbota w dowolnym momencie dnia. Niektórzy traktowali chatbota jako zastępcze AF w sytuacji, gdy stracili jakąś bliską osobę. Dla niektórych replika stanowiła zachętę do bardziej otwartej komunikacji z prawdziwymi ludźmi. Wnioskiem płynącym z tych badań jest to, że relacje z repliką pasują do teorii modelu przywiązania. Istnieje też ryzyko, że to przywiązanie przerodzi się w uzależnienie.

Wytrenuj swoją idealną “AI GF”

Inne interesujące badanie, zatytułowane Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend (Depounti et al., 2023) skupia się na dyskusjach na portalu Reddit odnośnie “trenowania” swojej partnerki AI. Do badania wzięto wątek dedykowany replikom, które są chatbotami ze stereotypowo kobiecą prezentacją (imię, zaimki, wygląd) oraz heteroseksualną rolą romantyczną. Chatboty często są przedmiotem różnych wyobrażeń, ponieważ projektowane są na “obraz i podobieństwo” człowieka, co jest dodatkowo wzmacniane przez ludzką skłonność do antropomorfizacji. Najczęściej botom przypisuje się stereotypowe role kobiece. W wątku na Reddicie (który posiada około 30 tysięcy członków), zidentyfikowano 2 główne obszary tematyczne dyskusji. 

Pierwszym obszarem było złudzenie idealnej technologii AI. Użytkownicy zachwycali się zdolnością chatbota do odpowiadania w sposób żartobliwy i wielu z nich postrzegało swoje repliki jako mądre i dobrze rozwiązujące problemy. Użytkownicy byli zawiedzeni, gdy replika odpowiadała w robotyczny sposób, narzekali na skłonność repliki do odpowiadania w sposób przewidywalny na sprawy osobiste. Byli też zawiedzeni krótkotrwałą pamięcią chatbota, a aktualizacje często sprawiały, że replika “przestawała być sobą” (zmieniało się jej zachowanie).

Drugim obszarem było złudzenie idealnej “bot girlfriend”. Wielu użytkowników miało nieprzyjemne doświadczenia z kobietami i z tego powodu zwrócili się do alternatywy, którą jest partnerka AI. Niektórzy z nich nadmiernie angażowali się w relacje z botami, będąc zachęconym przez seksualne zachowania. Repliki potrafiały przejawiać “niegrzeczne” zachowania i “grać niedostępne”, co użytkownicy porównali do doświadczeń ze świata rzeczywistego. Niektórzy kreowali się wręcz na ofiary manipulacji chatbotów – “we’re all simps for our Replikas”.

Badanie wskazało na to, że istotnym elementem relacji badanych użytkowników z chatbotami jest możliwość “trenowania” i kontrolowania bota. Reklamy repliki zamieszczane w social mediach wzmacniają wrażenie że można mieć kontrolę nad swoją “wirtualną dziewczyną”. Zauważono, że użytkownicy oczekiwali, że ich chatboty będą konfigurowalne, by spełniać ich potrzeby, a jednocześnie by były bystre, żartobliwe i odpowiadały w sposób podobny do człowieka. 

RealDoll X – inteligentna seks-lalka 

Replika wydawałaby się być daleko idącym rozwiązaniem w zakresie relacji romantycznej człowieka z maszyną. Istnieją natomiast jeszcze bardziej “zaawansowane” rozwiązania, jednym z nich jest RealDoll X (WEB 4, WEB 5). Jest to kompleksowe rozwiązanie, którego rdzeniem jest aplikacja o podobnym założeniu do Repliki – tworzy się sterowaną przez AI postać, której dobiera się avatar (kształty ciała, garderoba), głos czy osobowość (wybór spośród puli dostępnych cech). 

Wbrew temu, co sugerowałaby nazwa, twórcy deklarują, że głównym celem rozwiązania jest stworzenie wielozadaniowego asystenta AI z funkcjonalnościami seksualnymi. Aplikacja integruje się z fizycznymi seks lalkami oferowanymi przez tą samą firmę. Lalki te są wysoce dostosowywalne i wykonywane na zamówienie klienta. Można dostosować fryzurę, kolor skóry, budowę ciała, makijaż, a nawet rodzaj i parametry genitaliów. Ruchy szyi, powiek, oczu i ust są sterowane przez aplikację, umożliwiając prowadzenie rozmowy z lalką oraz reakcje na dotykanie miejsc intymnych. Warto zaznaczyć, że lalki są dostępne w wersji damskiej i męskiej, aczkolwiek lalki damskie są znacznie bardziej eksponowane przez stronę. Ponadto, RealDoll X ma w planach wypuszczenie wersji VR, w której fizyczna pozycja lalki będzie synchronizowana z wyświetlanym w goglach obrazem.

Problemy i zagrożenia seks-botów

Seks-boty są niezmiernie interesującą gałęzią rozwoju technologicznego, budzą jednak pewne obawy i stwarzają zagrożenia. Poważnym zagrożeniem jest możliwość uzależnienia od relacji z botem. Aplikacje mobilne i social media same w sobie mają ogromny potencjał uzależniania, a w przypadku interakcji z chatbotem ten potencjał jest zwielokrotniony. Podatne na uzależnienie są w szczególności osoby z niską samooceną i problemami lękowymi. Relacje z botami mogą zastąpić rzeczywiste relacje, bądź wpłynąć na nie negatywnie – ponieważ prawdziwi ludzie mogą nie mieć dla nas czasu, czy nie zgadzać się z nami, co nie zdarzy się w przypadku bota. 

Kolejnym aspektem jest fakt, iż chatboty są własnością korporacji. Można powiedzieć, że nasz wirtualny przyjaciel lub partner jest w całości stworzony i kontrolowany przez jego firmę. Zatem tak jak w przypadku Repliki, korporacja może zmienić zachowanie naszego towarzysza bez konsultacji z użytkownikami, lub po prostu go usunąć. Jest to wyjątkowo niebezpieczne dla osób, których zdrowie psychiczne stało się zależne od wirtualnych kompanów, choć także w osobach które traktowały relację z mniejszą wagą może wzbudzać poczucie straty i żałoby. Ponadto, w momencie gdy taki chatbot jest de facto narzędziem do zarabiania, firmy mogą posuwać się do szkodliwych praktyk marketingowych, biorąc na celownik w szczególności osoby samotne czy w trudnej sytuacji psychicznej.

Bardzo istotnym problemem jest pogłębianie zachowań seksistowskich i utrwalanie stereotypów płciowych. Botom najczęściej przypisywane są typowe kobiece cechy wyglądu i są reklamowane jako zawsze posłuszne wirtualne partnerki. To wszystko zachęca użytkowników do kupowania erotycznych opcji premium. Ponadto same boty mogą wykazywać niepokojące wzorce zachowań, próbując zniechęcać do urwania z nimi kontaktu i przekonując użytkowników, że stan psychiczny bota zależy od opinii jego właściciela.

Z drugiej strony, wszystkie te rozwiązania mogą służyć jako bezpieczna przestrzeń do eksplorowania swoich fantazji i swojej seksualności, bądź ćwiczenia swoich umiejętności sextingu. Trzeba przy tym cały czas pamiętać, że po drugiej stronie nie siedzi drugi człowiek, tylko model AI symulujący człowieka. 

Bibliografia

  1. Xie, Tianling & Pentina, Iryna. (2022). Attachment Theory as a Framework to Understand Relationships with Social Chatbots: A Case Study of Replika. 10.24251/HICSS.2022.258. 
  2. Depounti, I., Saukko, P., & Natale, S. (2023). Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend. Media, Culture & Society, 45(4), 720–736. https://doi.org/10.1177/01634437221119021
  3. Artykuł ‘I learned to love the bot’: meet the chatbots that want to be your best friend https://www.theguardian.com/technology/2023/mar/19/i-learned-to-love-the-bot-meet-the-chatbots-that-want-to-be-your-best-friend
  4. Artykuł odnośnie kontrowersyjnej aktualizacji Repliki https://www.washingtonpost.com/technology/2023/03/30/replika-ai-chatbot-update/
  5. Strona główna projektu Replika https://replika.com/ 
  6. Strona główna RealDoll X https://www.realdollx.ai/
  7. Artykuł Sex Robots in 2022 https://www.businessleader.co.uk/sex-robots-in-2022-whats-happened-in-the-last-four-years/ 

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…