Czy robot może być przyjacielem dziecka? A może nawet jego nauczycielem, opiekunem albo kimś, komu powierzy sekret? Wizja robotów zajmujących się dziećmi do niedawna wydawała się czystym science fiction. Dzisiaj taka obecność staje się coraz bardziej realna – roboty wspierają terapię, uczestniczą w edukacji, a nawet pomagają w codziennym funkcjonowaniu. Dzięki postępowi w dziedzinie sztucznej inteligencji, maszyny potrafią rozpoznawać emocje, prowadzić proste rozmowy i odpowiadać na potrzeby najmłodszych użytkowników. Wraz z rozwojem tej technologii pojawiają się jednak pytania: Czy relacja z robotem może wspierać rozwój, czy raczej go zubożyć? Poruszamy kwestie związane z potencjałem, zagrożeniami, etyką i więziami emocjonalnymi świata najmłodszych.
Dziecko, robot i przyszłość, która już nadeszła
Słysząc słowa dziecko i robot w jednym zdaniu, pierwszą myślą jaka się pojawia jest koncepcja robota-opiekunki z gry „Detroit: Become Human”, która przejmuje odpowiedzialność za los małej Alice. Historia ich relacji potrafi ścisnąć za serce i skłonić do pytań: czy robot może być prawdziwym opiekunem? A może nawet przyjacielem? Podobne przemyślenia pojawiają się w innych dziełach popkultury, np. w słynnych Gwiezdnych Wojnach, gdzie mały Anakin tworzy protokolarnego robota C-3PO, który stał się jego przyjacielem i towarzyszem przygód lub w animowanym filmie Big Hero 6, w którym uroczy robot Baymax, będący dziełem zmarłego brata głównego bohatera, troszczy się o Hiro niejako wchodząc w rolę straconego rodzeństwa – monitorując jego stan zdrowia, wspierając w trudnych chwilach i stopniowo stając się kimś więcej niż tylko maszyną. Tego typu relacje, choć fikcyjne, pokazują, że ludzie – a zwłaszcza dzieci – są gotowi tworzyć silne emocjonalne więzi z czymś, co tylko udaje, że jest rozumnym stworzeniem.

Brzmi jak science-fiction? Jasne, tylko że… to już nie jest całkiem fikcja. W rzeczywistości roboty takie jak Nao, Pepper czy Sanbot już dziś wspierają dzieci – również w Polsce. W 2021 roku trójka takich robotów dostała etaty w Centrum Pediatrii w Sosnowcu, gdzie pomaga dzieciom pokonać stres związany z leczeniem, a każdy z nich ma swoje unikalne zastosowania:
- Roboty recepcyjne (Peppery) – pełnią służbę przy wejściu do szpitala, mierząc temperaturę pacjentów oraz udzielając informacji o usługach, a także kierując pacjentów we właściwe miejsca w placówce.
- Roboty inspekcyjne (Sanboty) – specjalizują się w udzielaniu pacjentom podstawowych porad, a także pełnią rolę asystentów personelu medycznego przemieszczając się po szpitalu i przekazując niezbędne informacje.
- Roboty edukacyjne (Nao) – dzięki konstrukcji, która umożliwia im chodzenie, znajdują zastosowania w ćwiczeniach rehabilitacyjnych z pacjentami, a dzięki możliwości wypowiadania sylab i słów dobrze sprawdzają się przy korekcji wad wymowy.

Roboty te może nie są tak zaawansowane jak Kara czy C-3PO, nie mają jeszcze emocji ani nie podejmują decyzji moralnych, ale ich obecność w codziennym życiu dzieci staje się coraz bardziej realna. Nie sprawują co prawda samodzielnej opieki nad dziećmi, ale są doskonałym uzupełnieniem ludzkich opiekunów. Chociaż koncepcja interakcji z humanoidalnymi robotami wydaje się być wizją z przyszłości, to odbywa się ona tu i teraz, na naszych oczach.
Co one w nich widzą?
Bardzo często dzieci traktują swoje zabawki, w szczególności pluszaki czy lalki, jak żywe stworzenia, przypisując im cechy i emocje jakie posiadają ludzie. Zjawisko to nosi nazwę antropomorfizacji i jest naturalną skłonnością dzieci (a także dorosłych) do przypisywania intencji i emocji nieożywionym obiektom. Co ciekawe, identyczną tendencję zaobserwowano w podejściu dzieci do robotów, co zostało opisane m. in. w publikacji Sherry Turkle pt. „Alone Together”. Zresztą, kto nigdy nie przepraszał swojego misia że upadł, albo martwił się, czy nie jest mu zimno? Roboty wywołują w dzieciach bardzo podobne odczucia, jak „tradycyjne” zabawki – w jednym z badań dzieci martwiły się, że gdy zgaśnie światło robot będzie się bał, a gdy zostanie wyłączony będzie mu smutno. Tendencje do antropomorfizacji mogą być tym większe, im bardziej robot przypomina człowieka – nie tylko wyglądem, ale też zachowaniem. Gdy coś się porusza, mówi, reaguje na akcje wykonywane przez dziecko, to w jego głowie nie jest to „coś”, a raczej „ktoś”.
Dziecko zatem traktuje robota jako istotę społeczną, więc naturalnie uznaje go jako partnera relacji, który go rozumie i wspiera. Nawet, jeśli wcale tak nie jest, bo przecież roboty (przynajmniej obecnie) nie odczuwają emocji, a jedynie zachowują się, jakby je odczuwały.
Cichy przyjaciel czy zimny algorytm?
Można powiedzieć, że ze swojej natury roboty posiadają pewne cechy dobrego nauczyciela. Wielokrotne powtarzanie tych samych rzeczy nie stanowi dla nich problemu, nie powoduje frustracji i zniecierpliwienia. Nie oceniają, nie zawstydzają, a do tego są powtarzalne i konsekwentne, co jest ogromnym atutem zwłaszcza w przypadku dzieci z zaburzeniami ze spektrum autyzmu. Te cechy mogą budować poczucie bezpieczeństwa, szczególnie u dzieci, które mają trudności w relacjach z rówieśnikami. Badania pokazują, że roboty humanoidalne, takie jak wspomniany wyżej Nao, mogą mieć pozytywny wpływ na rozwój uwagi, komunikacji oraz zachowań społecznych u dzieci wykazujących zaburzenia ze spektrum autyzmu. Androidy tworzą dla dzieci środowisko z ograniczoną liczbą bodźców – przewidywalne zachowania, ograniczony zestaw gestów i tonów głosu sprawiają, że dziecko ma szansę skupić się na konkretnej reakcji, bez potrzeby interpretacji towarzyszących jej sygnałów społecznych, które często występują przy kontakcie z ludźmi. Zaskakujące może być to, że dzieci nie tylko chętnie wchodzą w interakcję z robotami, czasem wręcz ufają im bardziej niż dorosłym. Dla części dzieci robot może być łatwiejszym rozmówcą niż człowiek – bo nigdy nie przerwie, nie wyśmieje i zawsze odpowie.
Badanie Computers in Human Behaviour, opublikowane w 2024 roku, wykazało, że dzieci w wieku 3-6 lat były bardziej skłonne ufać robotom niż ludziom, nawet jeśli roboty popełniały oczywiste błędy (badanie polegało na nazywaniu znanych i nieznanych dzieciom przedmiotów). Dzieci uważały, że błędy popełnianie przez roboty są spowodowane przypadkiem, podczas gdy te same pomyłki u dorosłych były postrzegane jako celowe.
Zawsze są jednak dwie strony medalu i to, co w pewnych warunkach jest zaletą, w innych może okazać się problemem. Przewidywalność i łatwość w kontaktach robot-dziecko może prowadzić do zbyt uproszczonego (a co za tym idzie, nierealnego) obrazu relacji międzyludzkich. Dziecko może przyzwyczaić się do tego, że jego komunikaty spotykają się wyłącznie z uprzejmą, zaprogramowaną odpowiedzią, co w kontakcie z realnym człowiekiem może wywoływać frustrację lub poczucie niezrozumienia. Zbyt częste interakcje z „empatycznymi maszynami” mogą prowadzić do kształtowania nierealistycznych wzorców relacji międzyludzkich, w których prawdzie zachowania zostają zastąpione symulacją.
Ponadto, badania wskazują na potencjalne zagrożenia związane z nadmiernym przywiązaniem dzieci do robotów. Zjawisko to może prowadzić do preferowania interakcji z maszynami zamiast kontaktów z ludźmi, a to z kolei do izolacji społecznej i poczucia wyalienowania.
Warto zwrócić również uwagę na kwestie etyczne związane z wykorzystaniem robotów jako medium kształtujące rozwój dziecka. Kwestie moralne zawsze podlegają subiektywnym przemyśleniom, nie da się ich w prosty sposób zaprogramować. Robot może naśladować dobre zachowanie, ale nie rozumie jego sensu. Jego „empatia” kończy się tam, gdzie kończy się algorytm. Dlatego ważnym jest, aby dzieci uczyły się wartości od ludzi, którzy potrafią rozmawiać i kwestionować dylematy moralne.
Dokąd zmierzamy – i co o tym myśleć?
Choć roboty jeszcze nie przejmują opieki nad dziećmi w pełnym zakresie, to coraz częściej są obecne w ich codziennym życiu – jako edukatorzy, asystenci, a nawet towarzysze rozmów. Systemy rozpoznawania emocji, generowania mowy czy uczenia maszynowego rozwijają się w szybkim tempie, a maszyny które kiedyś widzieliśmy tylko w filmach science fiction, stopniowo pojawiają się w naszej rzeczywistości.
Organizacje takie jak OECD czy Komisja Europejska już teraz pracują nad regulacjami dotyczącymi sztucznej inteligencji, aby zapewnić jej transparentność, bezpieczeństwo i etyczne użycie. Wciąż jednak pozostają pytania, na które nie ma jednoznacznej odpowiedzi: kto decyduje, czego robot ma uczyć? Jakie wartości ma przekazywać? Jakich słów i w jakim kontekście powinien ich używać?
Roboty, jako narzędzia, same w sobie nie są ani dobre, ani złe, a ich wykorzystanie w procesie wychowawczym dzieci niesie wiele zalet, ale też stawia nowe wyzwania. Technologia ta powinna stanowić pomoc dla dorosłych w opiece nad dziećmi, być dodatkiem do procesu dydaktycznego, a nie substytutem ludzkich nauczycieli. W końcu to nie technologia wychowuje dzieci, tylko ludzie, a roboty mogą nam w tym pomóc, pod warunkiem, że to my zachowamy kontrolę nad tym czego mają uczyć i dlaczego.
Bibliografia
- Alnafjan, A., Alghamdi, M., Alhakbani, N., & Al-Ohali, Y. (2024). Improving Imitation Skills in Children with Autism Spectrum Disorder Using the NAO Robot and a Human Action Recognition. Diagnostics (Basel, Switzerland), 15(1), 60. https://doi.org/10.3390/diagnostics15010060
- Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. New York: Basic Books.
- Smakman, M. H. J., Konijn, E. A., & Vogt, P. A. (2022). Do Robotic Tutors Compromise the Social-Emotional Development of Children?. Frontiers in robotics and AI, 9, 734955. https://doi.org/10.3389/frobt.2022.734955
- Termedia. (2021). Nao, Sanbot i Pepper dostali etaty w Centrum Pediatrii w Sosnowcu. https://www.termedia.pl/wartowiedziec/Nao-Sanbot-i-Pepper-dostali-etaty-w-Centrum-Pediatrii-w-Sosnowcu,42691.html
-
Rebecca Stower, Arvid Kappas, and Kristyn Sommer. 2024. When is it right for a robot to be wrong? Children trust a robot over a human in a selective trust task. Comput. Hum. Behav. 157, C (Aug 2024). https://doi.org/10.1016/j.chb.2024.108229
- M. Czerwonka, J. Malec. (2024). Roboty humanoidalne w terapii dzieci z zaburzeniami ze spektrum autyzmu – szanse i zagrożenia. ResearchGate. https://www.researchgate.net/publication/381756131
W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w…