{"id":8288,"date":"2025-06-15T12:28:07","date_gmt":"2025-06-15T12:28:07","guid":{"rendered":"https:\/\/architeles.eu\/ethics\/?p=8288"},"modified":"2025-06-18T11:28:35","modified_gmt":"2025-06-18T11:28:35","slug":"wydawanie-polecen-robotom-spolecznym-w-kontekscie-podawania-przedmiotow-strategie-bezpiecznej-interakcji-w-obszarze-human-robot-interaction","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2025\/06\/15\/wydawanie-polecen-robotom-spolecznym-w-kontekscie-podawania-przedmiotow-strategie-bezpiecznej-interakcji-w-obszarze-human-robot-interaction\/","title":{"rendered":"Wydawanie polece\u0144 robotom spo\u0142ecznym w kontek\u015bcie podawania przedmiot\u00f3w \u2013 strategie bezpiecznej interakcji w obszarze Human-Robot Interaction."},"content":{"rendered":"<p>&nbsp;<\/p>\n<h1><b>1. Wprowadzenie<\/b><\/h1>\n<p><span style=\"font-weight: 400;\">Roboty spo\u0142eczne to maszyny zaprojektowane do interakcji z lud\u017ami w spos\u00f3b naturalny i zrozumia\u0142y, cz\u0119sto przypominaj\u0105cy relacje mi\u0119dzyludzkie. W przeciwie\u0144stwie do robot\u00f3w przemys\u0142owych, kt\u00f3re dzia\u0142aj\u0105 w \u015bci\u015ble kontrolowanych \u015brodowiskach, roboty spo\u0142eczne funkcjonuj\u0105 w przestrzeniach codziennego u\u017cytku \u2013 takich jak domy, szko\u0142y czy plac\u00f3wki opieki. Przyk\u0142adami takich urz\u0105dze\u0144 s\u0105 <\/span><b>Pepper<\/b><span style=\"font-weight: 400;\"> \u2013 humanoidalny robot rozpoznaj\u0105cy emocje, <\/span><b>Nao<\/b><span style=\"font-weight: 400;\"> \u2013 ma\u0142y edukacyjny robot u\u017cywany m.in. w terapii dzieci z autyzmem, czy <\/span><b>Care-O-bot<\/b><span style=\"font-weight: 400;\">, kt\u00f3ry pomaga osobom starszym w domowych obowi\u0105zkach.<\/span><!--more--><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter wp-image-8298\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/SoftBank_pepper-768x1024.jpg\" alt=\"\" width=\"308\" height=\"411\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/SoftBank_pepper-768x1024.jpg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/SoftBank_pepper-225x300.jpg 225w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/SoftBank_pepper-1152x1536.jpg 1152w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/SoftBank_pepper-1536x2048.jpg 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/SoftBank_pepper.jpg 1920w\" sizes=\"auto, (max-width: 308px) 100vw, 308px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Wsp\u00f3\u0142dzia\u0142anie ludzi z robotami \u2013 znane jako <\/span><b>Human-Robot Interaction (HRI)<\/b><span style=\"font-weight: 400;\"> \u2013 staje si\u0119 coraz wa\u017cniejszym elementem projektowania nowoczesnych technologii. HRI obejmuje zar\u00f3wno komunikacj\u0119 werbaln\u0105, jak i niewerbaln\u0105, a jej celem jest stworzenie p\u0142ynnej i bezpiecznej wsp\u00f3\u0142pracy. W codziennym \u017cyciu mo\u017ce to oznacza\u0107 proste czynno\u015bci, takie jak poproszenie robota o podanie butelki wody, przyniesienie przedmiotu z innego pokoju czy pomoc przy sprz\u0105taniu. Cho\u0107 z perspektywy cz\u0142owieka s\u0105 to gesty intuicyjne, dla robota wymagaj\u0105 zaawansowanego przetwarzania informacji, interpretacji kontekstu i planowania ruchu.<\/span><\/p>\n<p><b>Podawanie przedmiot\u00f3w<\/b><span style=\"font-weight: 400;\">, cho\u0107 z pozoru proste, jest jednym z najbardziej z\u0142o\u017conych zada\u0144 w interakcji fizycznej mi\u0119dzy cz\u0142owiekiem a robotem. Wymaga nie tylko precyzyjnych dzia\u0142a\u0144 mechanicznych, ale tak\u017ce zrozumienia intencji u\u017cytkownika, przewidywania jego reakcji oraz dostosowania tempa i si\u0142y dzia\u0142ania. Z\u0142e wykonanie tego gestu mo\u017ce prowadzi\u0107 do nieporozumie\u0144, niech\u0119ci u\u017cytkownika, a nawet do niebezpiecznych sytuacji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Celem niniejszego artyku\u0142u jest om\u00f3wienie strategii <\/span><b>bezpiecznego wydawania polece\u0144 i przekazywania przedmiot\u00f3w robotom spo\u0142ecznym<\/b><span style=\"font-weight: 400;\">. Skupimy si\u0119 na wyzwaniach HRI w kontek\u015bcie fizycznej wsp\u00f3\u0142pracy, przegl\u0105dzie metod komunikacji, modelach interakcji oraz dobrych praktykach. Poruszymy tak\u017ce kwestie etyczne i spo\u0142eczne, zwi\u0105zane z rosn\u0105c\u0105 obecno\u015bci\u0105 robot\u00f3w w naszym otoczeniu.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><b>2. Kontekst i wyzwania HRI w zadaniach fizycznej wsp\u00f3\u0142pracy<\/b><\/h1>\n<h2><b>R\u00f3\u017cnica mi\u0119dzy robotami przemys\u0142owymi a spo\u0142ecznymi<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Roboty przemys\u0142owe i roboty spo\u0142eczne r\u00f3\u017cni\u0105 si\u0119 nie tylko wygl\u0105dem czy \u015brodowiskiem dzia\u0142ania, ale przede wszystkim za\u0142o\u017ceniami projektowymi i sposobem interakcji z otoczeniem. Robot przemys\u0142owy \u2013 jak rami\u0119 robotyczne na linii monta\u017cowej \u2013 wykonuje precyzyjnie zaprogramowane czynno\u015bci w \u015bci\u015ble kontrolowanych warunkach. Dzia\u0142a szybko, z du\u017c\u0105 si\u0142\u0105 i bez potrzeby interpretowania ludzkich emocji czy intencji. Co wi\u0119cej, zwykle pracuje za fizycznymi barierami ochronnymi, kt\u00f3re maj\u0105 zapobiec kontaktowi z cz\u0142owiekiem i zminimalizowa\u0107 ryzyko wypadk\u00f3w.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W odr\u00f3\u017cnieniu od tego, roboty spo\u0142eczne s\u0105 projektowane z my\u015bl\u0105 o bliskim, bezpo\u015brednim kontakcie z lud\u017ami. Musz\u0105 porusza\u0107 si\u0119 w otwartych, dynamicznych \u015brodowiskach \u2013 takich jak mieszkania, biura czy szko\u0142y \u2013 i reagowa\u0107 na nieprzewidywalne zachowania u\u017cytkownik\u00f3w. Wymaga to od nich zupe\u0142nie innego podej\u015bcia do percepcji otoczenia, planowania ruchu oraz reagowania na bod\u017ace spo\u0142eczne, takie jak spojrzenie, ton g\u0142osu czy gest r\u0119k\u0105. Nie chodzi ju\u017c tylko o wykonanie zadania, ale o wykonanie go <\/span><b>w spos\u00f3b akceptowalny spo\u0142ecznie i bezpieczny<\/b><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Fundamentaln\u0105 r\u00f3\u017cnic\u0105 jest r\u00f3wnie\u017c cel interakcji: robot przemys\u0142owy \u201ewsp\u00f3\u0142pracuje\u201d z cz\u0142owiekiem jedynie po\u015brednio, wykonuj\u0105c powtarzalne operacje w jego otoczeniu. Robot spo\u0142eczny natomiast <\/span><b>wchodzi z cz\u0142owiekiem w relacj\u0119<\/b><span style=\"font-weight: 400;\">, cz\u0119sto na poziomie komunikacji niewerbalnej. Ta r\u00f3\u017cnica przek\u0142ada si\u0119 bezpo\u015brednio na wyzwania konstrukcyjne. O ile robot przemys\u0142owy mo\u017ce polega\u0107 na precyzyjnych czujnikach i powtarzalnych warunkach, robot spo\u0142eczny musi dysponowa\u0107 elastycznymi algorytmami percepcji, kt\u00f3re pozwalaj\u0105 mu \u201erozumie\u0107\u201d sytuacj\u0119 spo\u0142eczn\u0105 w czasie rzeczywistym. W zadaniach takich jak podawanie przedmiot\u00f3w oznacza to konieczno\u015b\u0107 m.in.:rozpoznania osoby, do kt\u00f3rej nale\u017cy si\u0119 zwr\u00f3ci\u0107,<\/span><span style=\"font-weight: 400;\"><br \/>\n<\/span><span style=\"font-weight: 400;\">zrozumienia, czego dotyczy pro\u015bba, oceny bezpiecznego dystansu i momentu przekazania obiektu.<\/span><\/p>\n<h2><strong>Bezpiecze\u0144stwo fizyczne i psychologiczne w HRI<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">W interakcji z robotami spo\u0142ecznymi bezpiecze\u0144stwo ma dwa wymiary: fizyczny i psychologiczny. Ten pierwszy dotyczy ochrony przed urazami \u2013 robot musi unika\u0107 kolizji, dostosowywa\u0107 si\u0142\u0119 chwytu i utrzymywa\u0107 odpowiedni dystans. Dlatego wiele urz\u0105dze\u0144 wyposa\u017canych jest w czujniki si\u0142y, kamery g\u0142\u0119bi i systemy wczesnego wykrywania przeszk\u00f3d, jak np. Care-O-bot 4.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-8295\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/care-o-bot-1024x576.jpg\" alt=\"\" width=\"600\" height=\"338\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/care-o-bot-1024x576.jpg 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/care-o-bot-300x169.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/care-o-bot-768x432.jpg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/care-o-bot-1536x864.jpg 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/care-o-bot-2048x1152.jpg 2048w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Bezpiecze\u0144stwo psychologiczne to z kolei poczucie komfortu i zaufania u\u017cytkownika. Nag\u0142e ruchy, brak reakcji na sygna\u0142y niewerbalne czy zbyt bezpo\u015brednie zachowanie mog\u0105 wywo\u0142a\u0107 stres lub niech\u0119\u0107. Z tego wzgl\u0119du projektuje si\u0119 roboty, kt\u00f3re komunikuj\u0105 swoje zamiary w spos\u00f3b zrozumia\u0142y \u2013 np. poprzez \u015bwiat\u0142a, d\u017awi\u0119ki czy mimik\u0119, jak w przypadku robota Pepper.<\/span><\/p>\n<h2><strong>Problemy percepcyjne i decyzyjne robot\u00f3w \u2013 jak rozpoznaj\u0105 przedmioty i u\u017cytkownik\u00f3w<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Aby robot m\u00f3g\u0142 poda\u0107 przedmiot, musi najpierw poprawnie zinterpretowa\u0107 otoczenie \u2013 rozpozna\u0107 cz\u0142owieka, zidentyfikowa\u0107 obiekt i zrozumie\u0107 kontekst polecenia. Wydaje si\u0119 to proste, ale dla maszyny oznacza to z\u0142o\u017cony proces przetwarzania danych z wielu czujnik\u00f3w jednocze\u015bnie: kamer RGB-D, mikrofon\u00f3w, lidar\u00f3w czy sensor\u00f3w dotykowych.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wyzwania pojawiaj\u0105 si\u0119 ju\u017c na etapie wykrywania przedmiot\u00f3w \u2013 robot musi rozpozna\u0107 ich kszta\u0142t, kolor, po\u0142o\u017cenie i orientacj\u0119, cz\u0119sto w warunkach zmiennego o\u015bwietlenia i z cz\u0119\u015bciowo zas\u0142oni\u0119tym widokiem. Problematyczna jest te\u017c identyfikacja osoby, kt\u00f3ra wyda\u0142a polecenie, szczeg\u00f3lnie w grupie. Systemy takie jak<\/span> <span style=\"font-weight: 400;\">OpenPose<\/span><span style=\"font-weight: 400;\"> czy MediaPipe pomagaj\u0105 w analizie postawy i gest\u00f3w, ale nie s\u0105 niezawodne.<\/span><\/p>\n<h2><strong>Znaczenie kontekstu sytuacyjnego (np. dom, szpital, szko\u0142a)<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Zachowanie robota spo\u0142ecznego nie mo\u017ce by\u0107 uniwersalne \u2013 musi by\u0107 dostosowane do miejsca i sytuacji, w jakiej dzia\u0142a. Inaczej zachowuje si\u0119 asystent w domu prywatnym, inaczej opiekun w szpitalu, a jeszcze inaczej pomocnik w klasie. Kontekst wp\u0142ywa na tempo interakcji, rodzaj komunikat\u00f3w i spos\u00f3b przekazywania przedmiot\u00f3w.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W warunkach domowych u\u017cytkownicy cz\u0119sto oczekuj\u0105 swobodnej, \u201eprzyjacielskiej\u201d wsp\u00f3\u0142pracy. W szpitalu kluczowe staj\u0105 si\u0119 delikatno\u015b\u0107 i przewidywalno\u015b\u0107 \u2013 robot nie mo\u017ce zaskakiwa\u0107 pacjenta ruchem czy d\u017awi\u0119kiem. W \u015brodowisku edukacyjnym liczy si\u0119 za to prostota obs\u0142ugi i odporno\u015b\u0107 na chaotyczne otoczenie.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kontekst sytuacyjny obejmuje nie tylko fizyczn\u0105 przestrze\u0144, ale te\u017c intencje u\u017cytkownika, jego nastr\u00f3j i potrzeby. Coraz wi\u0119cej system\u00f3w stara si\u0119 uwzgl\u0119dnia\u0107 te czynniki, np. poprzez analiz\u0119 mowy, ekspresji twarzy czy tonu g\u0142osu, jak robi to Furhat Robotics.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><b>3. Sposoby wydawania polece\u0144 \u2013 przegl\u0105d metod<\/b><\/h1>\n<p><span style=\"font-weight: 400;\">Efektywna komunikacja z robotami spo\u0142ecznymi wymaga opracowania metod, kt\u00f3re b\u0119d\u0105 dla cz\u0142owieka intuicyjne, a dla robota mo\u017cliwe do jednoznacznej interpretacji. W kontek\u015bcie podawania przedmiot\u00f3w kluczowe jest, aby u\u017cytkownik m\u00f3g\u0142 precyzyjnie zakomunikowa\u0107, <\/span><b>co<\/b><span style=\"font-weight: 400;\">, <\/span><b>komu<\/b><span style=\"font-weight: 400;\">, <\/span><b>kiedy<\/b><span style=\"font-weight: 400;\"> i <\/span><b>jak<\/b><span style=\"font-weight: 400;\"> ma zosta\u0107 podane. W tym celu stosuje si\u0119 r\u00f3\u017cnorodne sposoby wydawania polece\u0144 \u2013 od g\u0142osu i gest\u00f3w po aplikacje mobilne czy rozwi\u0105zania hybrydowe.<\/span><\/p>\n<h2><b>Wydawanie polece\u0144 g\u0142osowych \u2013 zalety i ograniczenia<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Mowa to jeden z najbardziej naturalnych sposob\u00f3w komunikacji mi\u0119dzyludzkiej, dlatego wiele robot\u00f3w spo\u0142ecznych wyposa\u017cono w systemy rozpoznawania mowy. Polecenia typu \u201epodaj mi kubek\u201d czy \u201eprzynie\u015b mi ksi\u0105\u017ck\u0119\u201d s\u0105 \u0142atwe do wypowiedzenia i nie wymagaj\u0105 od u\u017cytkownika u\u017cycia r\u0105k czy wzroku. Zalet\u0105 tego podej\u015bcia jest wygoda i dost\u0119pno\u015b\u0107, szczeg\u00f3lnie w sytuacjach, gdy u\u017cytkownik ma ograniczon\u0105 mobilno\u015b\u0107 (np. osoby starsze, pacjenci).<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-8303 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/robot_command-1024x576.webp\" alt=\"\" width=\"600\" height=\"338\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/robot_command-1024x576.webp 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/robot_command-300x169.webp 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/robot_command-768x432.webp 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/robot_command-1536x864.webp 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/robot_command-2048x1152.webp 2048w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Ograniczeniem jest jednak podatno\u015b\u0107 na b\u0142\u0119dy \u2013 szumy otoczenia, r\u00f3\u017cnice akcentowe, nieprecyzyjna artykulacja czy brak kontekstu mog\u0105 utrudnia\u0107 prawid\u0142ow\u0105 interpretacj\u0119 wypowiedzi. Problemem s\u0105 te\u017c niejednoznaczne sformu\u0142owania (\u201epodaj to\u201d), kt\u00f3re wymagaj\u0105 dodatkowej weryfikacji.<\/span><\/p>\n<h2><b>Wskazywanie r\u0119k\u0105 i gestami<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Komunikacja niewerbalna \u2013 zw\u0142aszcza wskazywanie r\u0119k\u0105, skinienie g\u0142ow\u0105 czy wyci\u0105gni\u0119cie d\u0142oni \u2013 to istotny element interakcji z robotami. Gesty s\u0105 intuicyjne i cz\u0119sto towarzysz\u0105 mowie, wzmacniaj\u0105c jej znaczenie. Dzi\u0119ki systemom wizyjnym i analizie postawy (np. OpenPose, Mediapipe), robot mo\u017ce rozpozna\u0107 kierunek wskazania, intencj\u0119 u\u017cytkownika i obiekt zainteresowania.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wyzwaniem jest jednak precyzyjne rozpoznawanie gest\u00f3w w zmiennych warunkach o\u015bwietleniowych, przy zas\u0142oni\u0119ciu cia\u0142a lub gdy u\u017cytkownik nie wykonuje ich wystarczaj\u0105co wyra\u017anie. Wsp\u00f3\u0142czesne algorytmy potrafi\u0105 analizowa\u0107 gesty w czasie rzeczywistym, ale nadal potrzebuj\u0105 doprecyzowania przez inne kana\u0142y komunikacyjne.<\/span><\/p>\n<h2><b>Interfejsy dotykowe i mobilne aplikacje<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Dla os\u00f3b preferuj\u0105cych bardziej \u201etechniczne\u201d formy komunikacji dost\u0119pne s\u0105 interfejsy dotykowe \u2013 np. ekrany wbudowane w robota, panele steruj\u0105ce lub aplikacje mobilne. U\u017cytkownik mo\u017ce na nich wskaza\u0107 konkretny przedmiot, osob\u0119 lub dzia\u0142anie z listy opcji.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-8302 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hellobot.png\" alt=\"\" width=\"338\" height=\"262\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hellobot.png 445w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hellobot-300x233.png 300w\" sizes=\"auto, (max-width: 338px) 100vw, 338px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Takie rozwi\u0105zania s\u0105 precyzyjne, ale mniej naturalne \u2013 wymagaj\u0105 si\u0119gni\u0119cia po urz\u0105dzenie, co mo\u017ce by\u0107 k\u0142opotliwe w dynamicznej sytuacji. Sprawdzaj\u0105 si\u0119 jednak tam, gdzie wa\u017cna jest dok\u0142adno\u015b\u0107, np. w edukacji, opiece zdrowotnej czy pracy z osobami z zaburzeniami mowy.<\/span><\/p>\n<h2><b>Mieszane podej\u015bcia (multimodalne interakcje)<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Najwi\u0119kszy potencja\u0142 w bezpiecznym i skutecznym wydawaniu polece\u0144 maj\u0105 tzw. <\/span><b>interakcje multimodalne<\/b><span style=\"font-weight: 400;\">, \u0142\u0105cz\u0105ce r\u00f3\u017cne kana\u0142y komunikacji: g\u0142os, gest, dotyk i kontekst sytuacyjny. Przyk\u0142adowo, u\u017cytkownik m\u00f3wi \u201epodaj mi kubek\u201d, jednocze\u015bnie wskazuj\u0105c go r\u0119k\u0105, a robot analizuje zar\u00f3wno tre\u015b\u0107 wypowiedzi, jak i kierunek gestu oraz pozycj\u0119 obiektu w przestrzeni.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Multimodalno\u015b\u0107 pozwala zredukowa\u0107 ryzyko nieporozumie\u0144 i zwi\u0119ksza elastyczno\u015b\u0107 interakcji, ale wymaga zaawansowanego przetwarzania danych w czasie rzeczywistym. Systemy musz\u0105 integrowa\u0107 informacje z r\u00f3\u017cnych sensor\u00f3w i podejmowa\u0107 decyzje na podstawie niejednoznacznych lub sprzecznych sygna\u0142\u00f3w.<\/span><\/p>\n<h2><b>Problemy z niejednoznaczno\u015bci\u0105 i dwuznaczno\u015bci\u0105 polece\u0144<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Niezale\u017cnie od wybranej metody, kluczowym wyzwaniem jest <\/span><b>rozwi\u0105zywanie niejednoznaczno\u015bci<\/b><span style=\"font-weight: 400;\">. Sformu\u0142owania typu \u201eto\u201d, \u201etamto\u201d, \u201eten drugi\u201d s\u0105 zrozumia\u0142e dla cz\u0142owieka w kontek\u015bcie danej sytuacji, ale dla robota \u2013 bez pe\u0142nego modelu otoczenia i intencji \u2013 mog\u0105 by\u0107 myl\u0105ce. Gest wykonany niedok\u0142adnie lub wypowied\u017a z pomini\u0119ciem s\u0142owa-klucz mo\u017ce prowadzi\u0107 do b\u0142\u0119dnej interpretacji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dlatego coraz cz\u0119\u015bciej wprowadza si\u0119 mechanizmy potwierdzenia \u2013 np. robot mo\u017ce zapyta\u0107 \u201eCzy chodzi\u0142o ci o niebieski kubek?\u201d, zanim wykona dzia\u0142anie. Inne podej\u015bcia obejmuj\u0105 nauczanie robota na podstawie przyk\u0142ad\u00f3w, w kt\u00f3rych uczony jest rozpoznawania stylu komunikacji konkretnego u\u017cytkownika.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><b>4. Strategie bezpiecznej interakcji przy przekazywaniu przedmiot\u00f3w<\/b><\/h1>\n<h2><strong>Modele wsp\u00f3\u0142dzielonej kontroli (shared autonomy)<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Wsp\u00f3\u0142dzielona kontrola to podej\u015bcie, w kt\u00f3rym cz\u0142owiek i robot razem realizuj\u0105 zadanie, dziel\u0105c si\u0119 odpowiedzialno\u015bci\u0105 za decyzje i dzia\u0142ania. W kontek\u015bcie podawania przedmiot\u00f3w oznacza to, \u017ce robot nie dzia\u0142a ca\u0142kowicie autonomicznie, lecz reaguje na sygna\u0142y u\u017cytkownika i umo\u017cliwia mu wp\u0142yw na przebieg interakcji. Przyk\u0142adowo: u\u017cytkownik inicjuje polecenie, robot rozpoznaje przedmiot i zaczyna go podnosi\u0107, ale ostateczne przekazanie nast\u0119puje dopiero po wyra\u017anym sygnale potwierdzaj\u0105cym, np. skinieniu g\u0142ow\u0105 lub kontakcie wzrokowym.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Takie podej\u015bcie zwi\u0119ksza bezpiecze\u0144stwo i przewidywalno\u015b\u0107 \u2013 cz\u0142owiek zachowuje kontrol\u0119, a robot dzia\u0142a elastycznie w granicach okre\u015blonych intencji u\u017cytkownika. Dzi\u0119ki shared autonomy mo\u017cliwe jest dostosowanie tempa, si\u0142y i sposobu dzia\u0142ania do aktualnych warunk\u00f3w i potrzeb. To szczeg\u00f3lnie wa\u017cne w sytuacjach wymagaj\u0105cych precyzji, np. podczas podawania gor\u0105cego napoju lub delikatnego przedmiotu.<\/span><\/p>\n<h2><strong>Strategie oparte na przestrzeni perypersonalnej i osobistej<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Bezpieczne przekazywanie przedmiot\u00f3w wymaga od robota respektowania tzw. przestrzeni perypersonalnej i osobistej cz\u0142owieka. Przestrze\u0144 perypersonalna to obszar bezpo\u015brednio otaczaj\u0105cy cia\u0142o \u2013 zasi\u0119g ramion, w kt\u00f3rym cz\u0142owiek naturalnie si\u0119ga po przedmioty. Przestrze\u0144 osobista z kolei odnosi si\u0119 do strefy komfortu psychicznego \u2013 zbyt bliskie podej\u015bcie mo\u017ce wywo\u0142a\u0107 dyskomfort lub stres.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Roboty spo\u0142eczne powinny wi\u0119c podawa\u0107 obiekty w spos\u00f3b, kt\u00f3ry nie narusza tych granic. Najcz\u0119\u015bciej oznacza to zatrzymanie ruchu w odpowiedniej odleg\u0142o\u015bci i \u201ezawieszenie\u201d obiektu w przestrzeni, umo\u017cliwiaj\u0105c u\u017cytkownikowi samodzielne jego odebranie. Takie podej\u015bcie zwi\u0119ksza poczucie kontroli i bezpiecze\u0144stwa.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Niekt\u00f3re systemy dodatkowo personalizuj\u0105 zachowanie robota, ucz\u0105c si\u0119 preferencji u\u017cytkownika co do dystansu czy dominuj\u0105cej r\u0119ki. Dzi\u0119ki temu interakcja staje si\u0119 nie tylko bezpieczna, ale te\u017c bardziej naturalna i komfortowa.<\/span><\/p>\n<h2><strong>Oczekiwanie na sygna\u0142 potwierdzaj\u0105cy (eye-contact, gest)<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Jedn\u0105 z kluczowych strategii bezpiecznego przekazywania przedmiot\u00f3w przez robota jest aktywne oczekiwanie na tzw. sygna\u0142 potwierdzaj\u0105cy ze strony u\u017cytkownika. W przeciwie\u0144stwie do automatycznego zako\u0144czenia ruchu, robot wstrzymuje si\u0119 z oddaniem przedmiotu do momentu, a\u017c odbierze jednoznaczny sygna\u0142 \u015bwiadcz\u0105cy o gotowo\u015bci cz\u0142owieka do interakcji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Takim sygna\u0142em mo\u017ce by\u0107 kontakt wzrokowy, delikatny gest r\u0119k\u0105, skinienie g\u0142owy lub nawet kr\u00f3tkie s\u0142owo (\u201etak\u201d, \u201edzi\u0119ki\u201d). Dzi\u0119ki zastosowaniu czujnik\u00f3w wizyjnych i system\u00f3w \u015bledzenia twarzy lub d\u0142oni, robot potrafi wykry\u0107, \u017ce u\u017cytkownik patrzy w jego stron\u0119 lub wyci\u0105ga r\u0119k\u0119. To pozwala zminimalizowa\u0107 ryzyko przypadkowego \u201ewepchni\u0119cia\u201d przedmiotu w osob\u0119, kt\u00f3ra nie jest jeszcze gotowa na jego odebranie.<\/span><\/p>\n<h2><strong>Mechanizmy rozpoznawania intencji i kontekstu<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Aby interakcja z robotem by\u0142a naprawd\u0119 bezpieczna i naturalna, maszyna musi nie tylko odbiera\u0107 polecenia, ale te\u017c rozumie\u0107 intencje u\u017cytkownika oraz kontekst sytuacji. W praktyce oznacza to analiz\u0119 nie tylko <\/span><i><span style=\"font-weight: 400;\">co<\/span><\/i><span style=\"font-weight: 400;\"> zosta\u0142o powiedziane lub zrobione, ale tak\u017ce <\/span><i><span style=\"font-weight: 400;\">dlaczego<\/span><\/i><span style=\"font-weight: 400;\"> i <\/span><i><span style=\"font-weight: 400;\">w jakich warunkach<\/span><\/i><span style=\"font-weight: 400;\">.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Rozpoznawanie intencji mo\u017ce opiera\u0107 si\u0119 na analizie j\u0119zyka naturalnego, kierunku spojrzenia, postawy cia\u0142a, a tak\u017ce historii wcze\u015bniejszych interakcji. Przyk\u0142adowo: je\u015bli u\u017cytkownik codziennie rano prosi o kubek z kaw\u0105, robot mo\u017ce sam przewidywa\u0107 to zachowanie i przygotowywa\u0107 si\u0119 do jego realizacji. Jednocze\u015bnie \u2013 je\u015bli u\u017cytkownik nie patrzy w stron\u0119 robota lub zajmuje si\u0119 inn\u0105 czynno\u015bci\u0105 \u2013 system mo\u017ce zinterpretowa\u0107 to jako brak gotowo\u015bci i wstrzyma\u0107 akcj\u0119.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kontekst sytuacyjny obejmuje tak\u017ce elementy otoczenia \u2013 np. to, czy kto\u015b inny znajduje si\u0119 blisko, czy przedmiot jest bezpieczny do podania (np. nie jest zbyt gor\u0105cy), czy u\u017cytkownik ma wolne r\u0119ce. Integracja tych danych pozwala robotowi podejmowa\u0107 bardziej \u015bwiadome decyzje i zmniejsza liczb\u0119 b\u0142\u0119d\u00f3w wynikaj\u0105cych z b\u0142\u0119dnej interpretacji.<\/span><\/p>\n<h2><strong>Adaptacyjne tempo i si\u0142a chwytu \u2013 jak robot \u201ewie\u201d, kiedy pu\u015bci\u0107<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Podanie przedmiotu to nie tylko kwestia jego chwycenia i wyci\u0105gni\u0119cia ramienia. R\u00f3wnie wa\u017cne jest tempo, z jakim robot si\u0119 porusza, oraz moment, w kt\u00f3rym decyduje si\u0119 pu\u015bci\u0107 obiekt. Zbyt szybki ruch mo\u017ce zaskoczy\u0107 u\u017cytkownika, zbyt mocny chwyt \u2013 uniemo\u017cliwi\u0107 odebranie przedmiotu, a zbyt wczesne puszczenie \u2013 spowodowa\u0107 jego upuszczenie.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-8297\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/podanie.jpg\" alt=\"\" width=\"302\" height=\"167\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/podanie.jpg 302w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/podanie-300x166.jpg 300w\" sizes=\"auto, (max-width: 302px) 100vw, 302px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Nowoczesne roboty spo\u0142eczne wykorzystuj\u0105 czujniki si\u0142y i momentu obrotowego, kt\u00f3re pozwalaj\u0105 im \u201ewyczu\u0107\u201d moment, w kt\u00f3rym cz\u0142owiek przejmuje kontrol\u0119 nad obiektem. Je\u015bli u\u017cytkownik zaczyna delikatnie poci\u0105ga\u0107 przedmiot, robot rejestruje zmian\u0119 nacisku i stopniowo rozlu\u017ania uchwyt. R\u00f3wnocze\u015bnie analizowane s\u0105 dane wizualne \u2013 np. u\u0142o\u017cenie d\u0142oni, kontakt wzrokowy, czy nawet mimika twarzy \u2013 aby potwierdzi\u0107, \u017ce interakcja przebiega zgodnie z oczekiwaniami.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Adaptacyjne tempo dzia\u0142ania to z kolei spos\u00f3b na dostosowanie si\u0119 do tempa u\u017cytkownika \u2013 robot nie powinien dzia\u0142a\u0107 szybciej ni\u017c potrzeba. Dzi\u0119ki takim mechanizmom interakcja staje si\u0119 bardziej p\u0142ynna, a u\u017cytkownik ma poczucie wi\u0119kszej kontroli nad sytuacj\u0105.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><strong>5. Przyk\u0142ady zastosowania i dobre praktyki<\/strong><\/h1>\n<h2><strong>Studia przypadk\u00f3w z bada\u0144 naukowych lub przemys\u0142u (np. roboty opieku\u0144cze, asystenci domowi)<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Zadania zwi\u0105zane z podawaniem przedmiot\u00f3w s\u0105 intensywnie testowane zar\u00f3wno w laboratoriach badawczych, jak i w rzeczywistych \u015brodowiskach u\u017cytkownik\u00f3w. Jednym z popularniejszych przyk\u0142ad\u00f3w jest robot asystuj\u0105cy <\/span><b>Care-O-bot 4<\/b><span style=\"font-weight: 400;\">, opracowany przez Fraunhofer IPA. W testach z udzia\u0142em senior\u00f3w robot potrafi\u0142 rozpozna\u0107 wskazany przedmiot (np. lek), przynie\u015b\u0107 go w bezpieczny spos\u00f3b i poda\u0107 w odpowiednim momencie, oczekuj\u0105c na wyci\u0105gni\u0119cie r\u0119ki przez u\u017cytkownika.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Z kolei w badaniach z u\u017cyciem robota <\/span><b>Tiago<\/b><span style=\"font-weight: 400;\"> od PAL Robotics przeanalizowano, jak spos\u00f3b przekazywania obiektu wp\u0142ywa na poziom zaufania uczestnik\u00f3w. Wyniki pokaza\u0142y, \u017ce strategie bazuj\u0105ce na kontakcie wzrokowym i sygnale potwierdzaj\u0105cym zwi\u0119ksza\u0142y komfort u\u017cytkownika oraz zmniejsza\u0142y liczb\u0119 nieporozumie\u0144.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W \u015brodowisku domowym interesuj\u0105ce pr\u00f3by prowadzi tak\u017ce Toyota z robotami <\/span><b>HSR (Human Support Robot)<\/b><span style=\"font-weight: 400;\">, kt\u00f3re s\u0105 w stanie rozpozna\u0107 konkretne obiekty z listy i dostarczy\u0107 je u\u017cytkownikowi na podstawie komendy g\u0142osowej i lokalizacji w przestrzeni.<\/span><\/p>\n<h2><strong>B\u0142\u0119dy i incydenty \u2013 czego ucz\u0105 nas pora\u017cki<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Cho\u0107 projektanci robot\u00f3w spo\u0142ecznych staraj\u0105 si\u0119 minimalizowa\u0107 ryzyko, interakcje fizyczne \u2013 zw\u0142aszcza zwi\u0105zane z przekazywaniem przedmiot\u00f3w \u2013 nadal bywaj\u0105 \u017ar\u00f3d\u0142em b\u0142\u0119d\u00f3w i nieporozumie\u0144. W literaturze opisano przypadki, w kt\u00f3rych robot zbyt szybko pu\u015bci\u0142 przedmiot, upuszczaj\u0105c go na pod\u0142og\u0119, lub przeciwnie \u2013 utrzyma\u0142 go zbyt d\u0142ugo, powoduj\u0105c niepotrzebne szarpni\u0119cie. W skrajnych sytuacjach dochodzi\u0142o do uderzenia u\u017cytkownika ramieniem robota, co cho\u0107 niegro\u017ane, potrafi skutecznie zniech\u0119ci\u0107 do dalszej interakcji.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-8299\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/thumb_400.jpg\" alt=\"\" width=\"400\" height=\"400\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/thumb_400.jpg 400w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/thumb_400-300x300.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/thumb_400-150x150.jpg 150w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/thumb_400-70x70.jpg 70w\" sizes=\"auto, (max-width: 400px) 100vw, 400px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Przyk\u0142ady takie jak badania nad robotem HERB z Carnegie Mellon University pokazuj\u0105, \u017ce drobne b\u0142\u0119dy \u2013 np. podanie przedmiotu z niew\u0142a\u015bciwej strony \u2013 mog\u0105 znacz\u0105co wp\u0142yn\u0105\u0107 na odbi\u00f3r ca\u0142ego systemu. U\u017cytkownicy deklarowali mniejsze zaufanie i wi\u0119kszy stres, nawet je\u015bli technicznie zadanie zosta\u0142o wykonane poprawnie.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><b>6. Etyka i akceptacja spo\u0142eczna<\/b><\/h1>\n<h2><strong>Zaufanie do robot\u00f3w w kontek\u015bcie fizycznej interakcji<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Zaufanie to kluczowy element ka\u017cdej interakcji cz\u0142owiek\u2013robot, zw\u0142aszcza gdy dochodzi do kontaktu fizycznego, jak przy podawaniu przedmiot\u00f3w. U\u017cytkownik musi mie\u0107 pewno\u015b\u0107, \u017ce robot nie zrobi nic nieprzewidywalnego, nie naruszy jego przestrzeni osobistej ani nie wyrz\u0105dzi krzywdy \u2013 nawet przypadkowo. To zaufanie buduje si\u0119 stopniowo, na podstawie wcze\u015bniejszych do\u015bwiadcze\u0144, obserwacji zachowa\u0144 robota oraz sposobu, w jaki reaguje on na ludzkie sygna\u0142y.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Badania pokazuj\u0105, \u017ce przewidywalno\u015b\u0107 i przejrzysto\u015b\u0107 dzia\u0142a\u0144 robota maj\u0105 bezpo\u015bredni wp\u0142yw na poziom zaufania. Je\u015bli robot potrafi zasygnalizowa\u0107 swoje zamiary \u2013 np. za pomoc\u0105 \u015bwiat\u0142a, gestu lub komunikatu g\u0142osowego \u2013 u\u017cytkownik czuje si\u0119 bezpieczniej i bardziej komfortowo. Z kolei nieprzewidywalne ruchy, brak reakcji na b\u0142\u0119dy lub naruszanie przestrzeni osobistej mog\u0105 prowadzi\u0107 do l\u0119ku lub ca\u0142kowitego wycofania si\u0119 z interakcji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dlatego etyczne projektowanie robot\u00f3w spo\u0142ecznych obejmuje nie tylko kwestie techniczne, ale te\u017c psychologiczne \u2013 robot powinien dzia\u0142a\u0107 w spos\u00f3b, kt\u00f3ry wspiera poczucie bezpiecze\u0144stwa, kontroli i wzajemnego zrozumienia.<\/span><\/p>\n<h2><strong>Kwestia odpowiedzialno\u015bci za b\u0142\u0105d \u2013 cz\u0142owiek vs maszyna<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">W miar\u0119 jak roboty spo\u0142eczne zyskuj\u0105 wi\u0119ksz\u0105 autonomi\u0119, coraz cz\u0119\u015bciej pojawia si\u0119 pytanie: kto ponosi odpowiedzialno\u015b\u0107, gdy co\u015b p\u00f3jdzie nie tak? Je\u015bli robot poda niew\u0142a\u015bciwy przedmiot, upu\u015bci go lub przypadkowo uderzy u\u017cytkownika \u2013 czy win\u0119 ponosi konstruktor, operator, sam robot, a mo\u017ce u\u017cytkownik?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W praktyce odpowiedzialno\u015b\u0107 za b\u0142\u0105d zale\u017cy od stopnia autonomii systemu oraz sposobu jego wdro\u017cenia. Gdy robot dzia\u0142a wy\u0142\u0105cznie na podstawie r\u0119cznie zaprogramowanych polece\u0144, \u0142atwiej wskaza\u0107 winnego \u2013 zwykle cz\u0142owieka. Jednak w przypadku system\u00f3w ucz\u0105cych si\u0119, kt\u00f3re adaptuj\u0105 si\u0119 do zachowa\u0144 u\u017cytkownika, granica odpowiedzialno\u015bci zaczyna si\u0119 zaciera\u0107.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Brak jasnych ram prawnych dotycz\u0105cych takich sytuacji mo\u017ce budzi\u0107 niepok\u00f3j i wp\u0142ywa\u0107 na akceptacj\u0119 robot\u00f3w w \u015brodowiskach codziennego u\u017cytku. Dlatego coraz cz\u0119\u015bciej m\u00f3wi si\u0119 o potrzebie tworzenia tzw. <\/span><i><span style=\"font-weight: 400;\">audytowalnych algorytm\u00f3w<\/span><\/i><span style=\"font-weight: 400;\"> \u2013 takich, kt\u00f3re nie tylko podejmuj\u0105 decyzje, ale te\u017c potrafi\u0105 je uzasadni\u0107. Przejrzysto\u015b\u0107 dzia\u0142ania i mo\u017cliwo\u015b\u0107 \u015bledzenia \u201e\u015bcie\u017cki decyzji\u201d robota staj\u0105 si\u0119 istotnym elementem zar\u00f3wno z punktu widzenia prawa, jak i zaufania spo\u0142ecznego.<\/span><\/p>\n<h2><strong>Etyczne aspekty autonomii robota i decyzyjno\u015bci<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Autonomia robota oznacza jego zdolno\u015b\u0107 do samodzielnego podejmowania decyzji na podstawie danych z otoczenia, wcze\u015bniejszych do\u015bwiadcze\u0144 i og\u00f3lnych zasad dzia\u0142ania. W kontek\u015bcie interakcji fizycznej \u2013 jak podawanie przedmiot\u00f3w \u2013 budzi to jednak istotne pytania etyczne: <\/span><b>na ile robot powinien sam decydowa\u0107, a kiedy musi uzyska\u0107 zgod\u0119 cz\u0142owieka?<\/b><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-8296\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-1024x683.jpeg\" alt=\"\" width=\"600\" height=\"400\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-1024x683.jpeg 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-300x200.jpeg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-768x512.jpeg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-1536x1024.jpeg 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-2048x1366.jpeg 2048w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2025\/06\/hri-mooc-banner-scaled-1-75x50.jpeg 75w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><\/p>\n<p><span style=\"font-weight: 400;\">Zbyt du\u017ca autonomia mo\u017ce prowadzi\u0107 do sytuacji, w kt\u00f3rej robot dzia\u0142a w spos\u00f3b nieprzewidywalny lub niepo\u017c\u0105dany, np. zbli\u017ca si\u0119 bez zaproszenia, podaje przedmiot bez zapytania, przerywa inn\u0105 aktywno\u015b\u0107 u\u017cytkownika. Z drugiej strony \u2013 zbyt silne ograniczenie autonomii obni\u017ca u\u017cyteczno\u015b\u0107 systemu i czyni interakcj\u0119 nieefektywn\u0105.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Etyczne projektowanie zak\u0142ada znalezienie r\u00f3wnowagi mi\u0119dzy inicjatyw\u0105 robota a kontrol\u0105 cz\u0142owieka. Kluczowe jest tu wprowadzenie tzw. granic decyzyjnych \u2013 czyli warunk\u00f3w, po kt\u00f3rych spe\u0142nieniu robot mo\u017ce podj\u0105\u0107 dzia\u0142anie, ale te\u017c mechanizm\u00f3w wstrzymywania i cofania polece\u0144. Autonomia powinna by\u0107 kontekstowa, zale\u017cna od osoby, sytuacji i poziomu ryzyka.\u00a0<\/span><\/p>\n<h2><strong>Kulturowe r\u00f3\u017cnice w podej\u015bciu do interakcji z robotem<\/strong><\/h2>\n<p><span style=\"font-weight: 400;\">Kulturowe r\u00f3\u017cnice wp\u0142ywaj\u0105 r\u00f3wnie\u017c na preferencje dotycz\u0105ce interakcji. W niekt\u00f3rych krajach \u2013 np. w Japonii czy Korei Po\u0142udniowej \u2013 akceptowane s\u0105 bliskie dystanse interpersonalne oraz bardziej spontaniczne, \u201eemocjonalne\u201d zachowania robota, takie jak kiwanie g\u0142ow\u0105, u\u015bmiechanie si\u0119 czy m\u00f3wienie wysokim tonem g\u0142osu. U\u017cytkownicy oczekuj\u0105, \u017ce robot b\u0119dzie \u201esympatyczny\u201d i niemal towarzyski, nawet je\u015bli jego funkcjonalno\u015b\u0107 jest ograniczona.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Z kolei w krajach takich jak Niemcy, Wielka Brytania czy Skandynawia cz\u0119\u015bciej preferowane s\u0105 roboty, kt\u00f3re zachowuj\u0105 si\u0119 formalnie, precyzyjnie komunikuj\u0105 swoje zamiary i utrzymuj\u0105 wi\u0119kszy dystans fizyczny. Przekazywanie przedmiot\u00f3w powinno odbywa\u0107 si\u0119 bez po\u015bpiechu i bez zb\u0119dnych gest\u00f3w \u2013 liczy si\u0119 efektywno\u015b\u0107 i przejrzysto\u015b\u0107 interakcji.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W badaniach z robotem Pepper prowadzonych we Francji i Japonii zauwa\u017cono, \u017ce francuscy u\u017cytkownicy woleli mniej ekspresyjne zachowanie robota, podczas gdy japo\u0144scy byli bardziej otwarci na kontakt fizyczny i \u201eosobowo\u015b\u0107\u201d robota. Takie obserwacje pokazuj\u0105, \u017ce projektowanie uniwersalnych zachowa\u0144 robota mo\u017ce by\u0107 ryzykowne \u2013 lepszym podej\u015bciem jest mo\u017cliwo\u015b\u0107 personalizacji na poziomie kulturowym.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><b>7. Podsumowanie i przysz\u0142o\u015b\u0107<\/b><\/h1>\n<p><span style=\"font-weight: 400;\">Interakcja fizyczna z robotami spo\u0142ecznymi, zw\u0142aszcza w kontek\u015bcie przekazywania przedmiot\u00f3w, ujawnia wiele wyzwa\u0144 technologicznych, spo\u0142ecznych i etycznych. Cho\u0107 na pierwszy rzut oka mo\u017ce si\u0119 wydawa\u0107, \u017ce podanie kubka czy ksi\u0105\u017cki to prosta czynno\u015b\u0107, dla robota wymaga to przetwarzania sygna\u0142\u00f3w z wielu kana\u0142\u00f3w jednocze\u015bnie \u2013 rozpoznania przedmiotu, zrozumienia intencji u\u017cytkownika, oceny bezpiecze\u0144stwa dzia\u0142ania oraz dostosowania formy przekazania do kontekstu i osoby.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Z dotychczasowych bada\u0144 i wdro\u017ce\u0144 wynika, \u017ce kluczowe znaczenie maj\u0105: przewidywalno\u015b\u0107 dzia\u0142ania robota, jasna sygnalizacja zamiar\u00f3w oraz zdolno\u015b\u0107 reagowania na sygna\u0142y potwierdzaj\u0105ce ze strony u\u017cytkownika. Tylko wtedy mo\u017cna m\u00f3wi\u0107 o bezpiecznej, naturalnej i akceptowalnej spo\u0142ecznie wsp\u00f3\u0142pracy.<\/span><\/p>\n<p><b>\u201eIdealna\u201d strategia komunikacji z robotem spo\u0142ecznym powinna by\u0107:<\/b><\/p>\n<ul>\n<li style=\"font-weight: 400;\"><b>Multimodalna<\/b><span style=\"font-weight: 400;\"> \u2013 \u0142\u0105czy\u0107 g\u0142os, gesty, wzrok i dotyk, daj\u0105c u\u017cytkownikowi elastyczno\u015b\u0107 wyboru,<\/span><\/li>\n<li style=\"font-weight: 400;\"><b>Kontekstowa<\/b><span style=\"font-weight: 400;\"> \u2013 uwzgl\u0119dnia\u0107 sytuacj\u0119, otoczenie i wcze\u015bniejsze interakcje,<\/span><\/li>\n<li style=\"font-weight: 400;\"><b>Zindywidualizowana<\/b><span style=\"font-weight: 400;\"> \u2013 dostosowywa\u0107 si\u0119 do preferencji konkretnego u\u017cytkownika, tak\u017ce kulturowych,<\/span><\/li>\n<li style=\"font-weight: 400;\"><b>Bezpieczna i przewidywalna<\/b><span style=\"font-weight: 400;\"> \u2013 unika\u0107 gwa\u0142townych ruch\u00f3w, naruszania przestrzeni osobistej i wymusza\u0107 potwierdzenia przed dzia\u0142aniem.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400;\">Patrz\u0105c w przysz\u0142o\u015b\u0107, coraz wi\u0119ksz\u0105 rol\u0119 odgrywa\u0107 b\u0119dzie <\/span><b>integracja zaawansowanej sztucznej inteligencji<\/b><span style=\"font-weight: 400;\">. Modele j\u0119zykowe, systemy rozpoznawania emocji czy uczenie przez obserwacj\u0119 pozwol\u0105 robotom lepiej rozumie\u0107 ludzi i adaptowa\u0107 si\u0119 do ich zachowa\u0144. Ju\u017c dzi\u015b testuje si\u0119 systemy, w kt\u00f3rych robot nie tylko wykonuje polecenia, ale te\u017c sam uczy si\u0119 preferowanego stylu komunikacji konkretnej osoby.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Rozw\u00f3j HRI zmierza wi\u0119c w stron\u0119 <\/span><b>bardziej p\u0142ynnych, naturalnych interakcji<\/b><span style=\"font-weight: 400;\">, w kt\u00f3rych robot nie b\u0119dzie tylko wykonawc\u0105, ale aktywnym i \u015bwiadomym uczestnikiem codziennych czynno\u015bci. Przekazywanie przedmiot\u00f3w to dobry punkt wyj\u015bcia \u2013 bo cho\u0107 z pozoru niewielki, ma ogromny wp\u0142yw na poczucie blisko\u015bci i zaufania mi\u0119dzy cz\u0142owiekiem a maszyn\u0105.<\/span><\/p>\n<h3 data-start=\"191\" data-end=\"211\"><strong data-start=\"195\" data-end=\"211\">Bibliografia<\/strong><\/h3>\n<ul data-start=\"213\" data-end=\"1455\">\n<li data-start=\"213\" data-end=\"315\">\n<p data-start=\"215\" data-end=\"315\">Care-O-bot\u00ae. (n.d.). <em data-start=\"236\" data-end=\"267\">Fraunhofer IPA \u2013 Care-O-bot 4<\/em>. <a class=\"cursor-pointer\" href=\"https:\/\/www.care-o-bot.de\/en\/care-o-bot-4.html\" target=\"_new\" rel=\"noopener\" data-start=\"269\" data-end=\"315\">https:\/\/www.care-o-bot.de\/en\/care-o-bot-4.html<\/a><\/p>\n<\/li>\n<li data-start=\"498\" data-end=\"593\">\n<p data-start=\"500\" data-end=\"593\">Furhat Robotics. (n.d.). <em data-start=\"525\" data-end=\"553\">Furhat Technology Overview<\/em>. <a class=\"cursor-pointer\" href=\"https:\/\/furhatrobotics.com\/technology\/\" target=\"_new\" rel=\"noopener\" data-start=\"555\" data-end=\"593\">https:\/\/furhatrobotics.com\/technology\/<\/a><\/p>\n<\/li>\n<li data-start=\"782\" data-end=\"913\">\n<p data-start=\"784\" data-end=\"913\">MediaPipe. (n.d.). <em data-start=\"803\" data-end=\"820\">Pose Landmarker<\/em>. Google Developers. <a class=\"cursor-pointer\" href=\"https:\/\/developers.google.com\/mediapipe\/solutions\/vision\/pose_landmarker\" target=\"_new\" rel=\"noopener\" data-start=\"841\" data-end=\"913\">https:\/\/developers.google.com\/mediapipe\/solutions\/vision\/pose_landmarker<\/a><\/p>\n<\/li>\n<li data-start=\"915\" data-end=\"1119\">\n<p data-start=\"917\" data-end=\"1119\">OpenPose. (n.d.). <em data-start=\"935\" data-end=\"1033\">OpenPose: Real-time multi-person keypoint detection library for body, face, and hands estimation<\/em>. Carnegie Mellon University. <a class=\"\" href=\"https:\/\/github.com\/CMU-Perceptual-Computing-Lab\/openpose\" target=\"_new\" rel=\"noopener\" data-start=\"1063\" data-end=\"1119\">https:\/\/github.com\/CMU-Perceptual-Computing-Lab\/openpose<\/a><\/p>\n<\/li>\n<li data-start=\"1121\" data-end=\"1207\">\n<p data-start=\"1123\" data-end=\"1207\">PAL Robotics. (n.d.). <em data-start=\"1145\" data-end=\"1167\">TIAGo robot platform<\/em>.<a href=\"https:\/\/pal-robotics.com\/robot\/tiago\"> https:\/\/pal-robotics.com\/robot\/tiago<\/a><\/p>\n<\/li>\n<li data-start=\"1209\" data-end=\"1316\">\n<p data-start=\"1211\" data-end=\"1316\">SoftBank Robotics. (n.d.). <em data-start=\"1238\" data-end=\"1267\">Pepper \u2013 The Humanoid Robot<\/em>. <a class=\"cursor-pointer\" href=\"https:\/\/www.softbankrobotics.com\/emea\/en\/pepper\" target=\"_new\" rel=\"noopener\" data-start=\"1269\" data-end=\"1316\">https:\/\/www.softbankrobotics.com\/emea\/en\/pepper<\/a><\/p>\n<\/li>\n<li data-start=\"1318\" data-end=\"1455\">\n<p data-start=\"1320\" data-end=\"1455\">Toyota Global. (2019, November). <em data-start=\"1353\" data-end=\"1396\">Human Support Robot (HSR) \u2014 Partner Robot<\/em>. <a href=\"https:\/\/global.toyota\/en\/newsroom\/corporate\/28912712.html\">https:\/\/global.toyota\/en\/newsroom\/corporate\/28912712.html<\/a><\/p>\n<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>&nbsp; 1. Wprowadzenie Roboty spo\u0142eczne to maszyny zaprojektowane do interakcji z lud\u017ami w spos\u00f3b naturalny i zrozumia\u0142y, cz\u0119sto przypominaj\u0105cy relacje mi\u0119dzyludzkie. W przeciwie\u0144stwie do robot\u00f3w przemys\u0142owych, kt\u00f3re dzia\u0142aj\u0105 w \u015bci\u015ble kontrolowanych \u015brodowiskach, roboty spo\u0142eczne funkcjonuj\u0105 w przestrzeniach codziennego u\u017cytku \u2013 takich jak domy, szko\u0142y czy plac\u00f3wki opieki. Przyk\u0142adami takich urz\u0105dze\u0144 s\u0105 Pepper \u2013 humanoidalny robot [&hellip;]<\/p>\n","protected":false},"author":281,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[470],"tags":[110,111],"class_list":["post-8288","post","type-post","status-publish","format-standard","hentry","category-agh-2024-25","tag-roboty","tag-roboty-spoleczne"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/8288","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/281"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=8288"}],"version-history":[{"count":8,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/8288\/revisions"}],"predecessor-version":[{"id":8487,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/8288\/revisions\/8487"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=8288"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=8288"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=8288"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}