Home » AGH 2022/23 » W jaki sposób karać roboty? Sposóby wyznaczanie prawa cywilnego i karnego w robotyce

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 31

W jaki sposób karać roboty? Sposóby wyznaczanie prawa cywilnego i karnego w robotyce

Spread the love

Wraz z postępem technologii widzimy także znaczące przyspieszenie rozwoju w dziedzinie robotyki. Maszyny te są już od dawna obecne w wielu fabrykach w postaci przemysłowych ramion znacząco wspomagając tempo produkcji oraz dbając o wysoką jakość. Pojawia się także coraz więcej prototypów humanoidalnych robot wzbogaconych o sztuczną inteligencję, co zbliża nas do wizji z filmów science-fiction. Obserwując te zjawiska można sobie zadać pytanie jak to wszystko wygląda od strony prawnej. Kto powinien zostać pociągnięty do odpowiedzialności w przypadku wypadku spowodowanego przez robota? I czy taka maszyna dodatkowo wyposażona w liczne algorytmy sztucznej inteligencji może być ofiarą wypadku?

Robot
Źródło: https://businessinsider.com.pl/technologie/jak-sztuczna-inteligencja-zmieni-prawo-i-przepisy/7jgj2q6

Jak działa prawo i kogo obowiązuje?

Aby zastanowić się jak analizować temat prawa cywilnego oraz karnego w robotyce najpierw trzeba sobie odpowiedzieć na pytanie co to jest prawo i kogo obowiązuje. Prawo jest generalnie zestawem zasad tworzonym przez ludzi, aby regulować zachowanie innych ludzi i polega mu każdy na terenie danego kraju (w przypadku prawa karnego najczęściej zależy to od wieku, co jest różnie uregulowane w różynch krajach). Przez każdego mamy na myśli zarówno osoby fizyczne (każdy człowiek indywidualnie) jak i osoby prawne (np. firmy, instytucje), aczkolwiek dotyczą ich inne przepisy prawne. Cecha, która czyni człowieka podmiotem prawa nosi nazwę zdolności prawnej jednostki. Zgodnie z tą definicją nie posiadają jej m.in. zwierzęta (ochrona praw zwierząt to określenie potoczne, określana są obowiązki człowieka w kontekście zwierząt), natomiast są przedmiotami prawa, więc pojawiają się w treści niektórych regulacji.

Istotna jest także zdolność do czynności prawnych jednostki, która pozwala na dokonywanie we własnym imieniu czynności prawnych, takich jak sporządzenie testamentu czy zawarcie umów. W Polsce pełną zdolność uzyskuje się poprzez zostanie pełnoletnim. Pełnoletność w większości krajów uzyskuje się kończąc 18 rok życia (w Polsce można także poprzez wejście w związek małżeński), aczkolwiek są kraje, w którym ten wiek jest inny. Kilka przykładów:

  • Iran, Indonezja – 15 rok życia
  • Kuba, Wietnam – 16 rok życia
  • Korea Północna – 17 rok życia
  • Algieria, Korea Południowa, niektóre prowincje Kanady – 19 rok życia
  • Nowa Zelandia, Tajlandia – 20 rok życia
  • Madagaskar, Singapur, stan Mississippi w USA – 21 rok życia

Co to jest robot w ujęciu prawnym i jak się ma on do prawa?

W kwestii prawa związanego z robotami pojawia się jeden kluczowy problem – nie da się znaleźć globalnych lub międzynarodowych wytycznych, które uściślają kwestie prawne w tym temacie. Jedyny znaleziony dokument na poziomie międzynarodowym to “Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki” (Parlament Europejski, 2017), która sama w sobie nie specyfikuje prawa w tym temacie jakkolwiek, a jedynie wymienia istotne kwestie, które organy powinny przeanalizować i uspójnić na poziomie Unii Europejskiej. Wewnątrz treści tego dokumentu są obecne odwołania między innymi do praw Asimova. Niestety wygląda na to, że jeszcze takie uspójnienie nie powstało pomimo tego, że minęło już ponad 6 lat do tej rezolucji. Tak więc na chwilę obecną zarówno prawo karne jak i prawo cywilne jest określane indywidualnie na pozimie każdego państwa. Natomiast generalnie patrząc, roboty nie mają zdolności prawnej, ani tym bardziej zdolności do czynności prawnych, a przynajmniej nie znaleźliśmy państwa, w którym byłoby inaczej.

Brak generalnych ustaleń prawny w tej tematyce automatycznie sprawia, że pojawia się spory problem związany ze zdefiniowaniem czym właściwe jest “robot” w ujęciu prawnym. Ze względu na to nie da się wskazać jednego dokumentu będącego właściwym źródłem dla takiej definicji. W dokumentach prawnych określenie “robot” jeśli już się pojawia to działa jako czarna skrzynka. Niemniej jednak abstrahując tylko od prawnych definicji, da się znaleźć wyjaśnienia tego określenia. Słownik PWN definiuje to jak poniżej:

Robot – urządzenie zastępujące człowieka przy wykonywaniu niektórych czynności

Definicja stosunkowo prosta, aczkolwiek nie uwzględnia faktu, że robot teoretycznie mógłby żyć własnym życiem. Nieco inną można znaleźć w Oxford Learner’s Dictionaries:

Robot – a machine that can perform a complicated series of tasks by itself

Tutaj warto zauważyć, że nie ma wskazania na wyręczenia człowiek, tylko na samoistne wykonywanie zadań. Jeszcze jedną powiązaną definicję, a właściwie to bardziej opis można odnaleźć w postaci ustalenia Parlamentu Europejskiego w związku z wspomnianą wcześniej rezolucją. Jest to charaktyrystyka terminu “smart robot”, która bazuje na 5 cechach kategoryzujących roboty. Są to: autonomia, interakacja człowiek-robot, natura, środowiska i zadanie.  Natomiast treść charakterystyki “smart robota” (Biczysko-Pudełko, 2019) brzmi następująco:

  • posiadanie autonomii w postaci pobierania danych ze środowiska poprzez sensory, wymianę i analizę tych danych
  • umiejętność samoistnego uczenia się bazując na doświadczeniu i interakcji (kryterium opcjonalne)
  • choćby minimalne wsparcie w postaci fizycznej (powinien być czymś materialnym w otoczeniu, w przeciwieństwie np. do programów komputerowych)
  • dostosowywanie własnego zachowania oraz akcji do środowiska
  • brak życia w rozumieniu biologicznym

Jak widać, ta definicja jest najbardziej rozbudowana i trochę zbliża się do kontekstu prawa, jednak wciąż pozostawia sporo miejsca wymagającego doprecyzowania.

Dodatkowo warto nadmienić, że po rezolucji Komisja Europejska została poproszona o rozstrzygnięcie kwestii związanych z rozwojem i użyciem robotyki w następnych 10-15 latach. To jak najbardziej tłumaczy dalszy brak dokumentów prawnych w tej tematyce, co i tak dodatkowo mogło zostać opóźnione m.in. przez pandemię COVID-19.

Jednym z krajów, w których robotyka rozwija się intensywnie jest Japonia. Tam pojawiły się pewne ustalenia prawne dotyczące tej tematyki, jednak najświeższy temat dotyczy wprowadzenia praw dotyczących robotów dostawowych, które mogą się poruszać po miastach.

Kto odpowiada za szkodzę wyrządzoną przez robota?

Na początek warto zaznaczyć, że skoro roboty generalnie nie zachowują się jako podmioty prawne to nie są w stanie aktualnie ponieść konsekwencji za swoje szkody. Oczywiście sprawa wygląda indywidualnie na poziomie każdego kraju, gdyż w każdym państwo ma własne prawo. Dodatkowo, prawo dotyczące użytkownia jest także definiowane przez producenta, ponieważ najprawdopodobniej będzie wymagać podpisania umowy przy kupnie produktu. Za krzywdy wyrządzone przez robota odpowiedzialność poniesie albo właściel robota, albo producent maszyny, co zależy od dokładnej sytuacji. W przypadku, gdy problem wynikł z fabrycznej wady najprawdopodobniej do odpowiedzialności zostanie pociągnięta firma produkująca roboty. Natomiast w sytuacji, gdy robot zostanie użyty niepoprawnie przez użytkownika, to wówczas on będzie odpowiadać za czyny robota. Samo w sobie prawo nie podchodzi w sposób szczególny do robotów, gdyż akta prawne nie wyróżniają ani nie definiują tych jednostek, więc roboty w tej kwestii są traktowane jako przedmiot, a nie podmiot.

To trochę podobna sytuacja do problemów z samolotem – jeśli problem pojawi się w wyniku wady technicznej, to konsekwencji poniesie producent, a jeśli problem wynika ze złego użytkowania to odpowiedzialność spoczywa na właścicielu samolotu (w tym przypadku nie jest to osoba fizyczna tylko raczej firma). Tak więc jasno można zobaczyć, że aktualnie prawo w większości krajów nie jest gotowe, na pojawienie się przedmiotów, które mogą mieć świadomość i nazywają się robotami.

Prawa Asimova

Prawa Asimova, znane również jako Trzy Prawa Robotyki, to zestaw fikcyjnych zasad opracowanych przez pisarza naukowego Isaaca Asimova w jego opowiadaniu o robotach Zabawa w berka (ang. Runaround). Prawa te mają na celu ustalenie etycznych zasad, które mają regulować zachowanie sztucznej inteligencji i robotów wobec ludzi. Przedstawiały się one następująco:

  1. Robot nie może skrzywdzić człowieka
  2. Robot musi podporządkować się rozkazom człowieka, chyba że są sprzeczne z Pierwszym Prawem
  3. Robot musi chronić swoje istnienie, chyba że jest to w sprzeczności z Pierwszym lub Drugim Prawem

W późniejszym opowiadaniu Roboty i Imperium (ang. Robots and Empire) Asimov dodał również Prawo Zerowe, które stało się nadrzędne do trzech poprzednich. A brzmi ono: Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Prawa Asimova miały na celu stworzenie systemu, który reguluje zachowanie robotów i sztucznej inteligencji, dając pierwszeństwo bezpieczeństwu i dobru człowieka. Choć są one fikcyjne, stały się wpływowymi koncepcjami w dziedzinie robotyki i etyki sztucznej inteligencji, inspirując dyskusje na temat odpowiedzialności i regulacji wobec rozwijającej się technologii. Przykładowo, zostały uwzględnione we wspomnianej już rezolucji, choć bardziej w charakterze ideałów, do których powinni dążyć twórcy inteligentnych bytów.

Jednak czy są one wystarczające?

Autonomiczne pojazdy

Wyobraźmy sobie następującą sytuację:

Pod koła autonomicznego samochodu wiozącego jednego pasażera wbiega dwójka bawiących się dzieci. Po analizie sytuacji pojazd (robot) ustala, że istnieją jedynie dwa wyjścia: śmiertelnie potrącić dzieci lub zjechać w bok i zniszczyć siebie oraz zabić pasażera.

Jest zatem postawiony przed decyzją kogo skrzywdzić, czego według Pierwszego (oraz Zerowego) Prawa Robotyki nie może zrobić pod żadnym pozorem. Pokazuje to, że Prawa Asimova są niewystarczające, zwłaszcza w sytuacjach dylematu życia i śmierci (Schmarzo, 2017). Czy zatem potrzebne jest Czwarte Prawo Robotyki?

Wiele ankiet i badań zostało przeprowadzonych w celu ustalenia, co robot powinien w takiej sytuacji zrobić. W jednej z ankiet 76% badanych opowiedziało się za poświęceniem pasażera zamiast 10 przechodniów (Sample, 2016). Zgodzili się, aby samochód zaprogramowany był w sposób “minimalizujący urazy i śmierci”. Utrzymywali to również, gdy to oni lub ich rodzina byli w samochodzie. Jednak, zapytani czy zakupili by tak zaprogramowane auto odpowiadali, że znacznie chętniej wybrali by takie, które stawia ich bezpieczeństwo jako najwyższy priorytet. Mercedes podjął decyzję kogo zabić w takiej sytuacji. Swoje pojazdy programuje bowiem w sposób chroniący pasażerów.

Jeśli wiesz, że możesz uratować choć jedno życie, uratuj przynajmniej je. Uratuj tych w aucie. – mówi Christopher von Hugo, dyrektor bezpieczeństwa w Mercedesie

Co jednak z prawnymi konsekwencjami takiego wypadku? Nadal sytuacja jest jasna: jeśli przełączasz samochód na autopilota, twoją odpowiedzialnością jako kierowcy jest zapewnienie, że auto jest pod kontrolą. Tak jest obecnie zarówno w Tesli, Cadillacu czy Mercedesie.

Mercedes F015
Mercedes F 015 – Luksusowe autonomiczne auto

Roboty w służbie militarnej

Kolejnym naruszeniem Praw Asimova jest wykorzystanie robotów w służbie militarnej. W jaki sposób rozważyć problem etyczny, że służąc jednej stronie, naruszamy zdrowie i bezpieczeństwo drugiej strony? Wojna sama w sobie podnosi wiele pytań natury etycznej, mimo to nadal jest obecna. Podobnie roboty militarne coraz częściej wykorzystywane są w akcji: drony, roboty dostawcze, wywiadowcze, przeciwminowe i wiele innych służą w celu ułatwienia operacji militarnych żołnierzom.

Co jednak z robotami-zabójcami, czy ich wykorzystanie jest etyczne? W artykule “Is it ethical to use robots to kill in a war?” autor porusza tę kwestię i wymienia argumenty zarówno za, jak i przeciw (Wagner, 2017). Mówi między innymi o nieprzewidywalności działań robota wobec niewinnych cywili, oraz że użycie robotów zmniejsza koszty wojny, co może doprowadzić do jej spowszednienia. Z drugiej strony pokazuje, że dzięki wykorzystaniu robotów liderzy państw mogą zmniejszyć liczbę ofiar.

Znana firma Boston Dynamics, tworząca humanoidalne roboty zdolne przemieszczać się w trudnym terenie, które mogły by być wykorzystane jako roboty-żołnierze, opowiedziała się w tej kwestii jasno:

Jednakże nasze roboty nie są specjalnie tworzone dla żadnego określonego rządu ani w celach wojskowych. Zgodnie z naszymi zasadami etycznymi, nie autoryzujemy ani nie współpracujemy z osobami, które chcą używać naszych robotów jako broni lub autonomicznych systemów celowania.

Podsumowanie

Wykorzystanie robotów w służbie człowiekowi rodzi wiele etycznych dylematów. Prawa Asimova były pierwszą próbą stworzenia systemu prawnego regulującego działania robota. Jednak w rzeczywistości są one niewystarczające. Ponieważ robot jako taki nie jest podmiotem prawa to nie może zostać ukarany, a odpowiedzialność za jego czyny spada na człowieka, twórcę lub użytkownika. Trwają obecnie próby ujednolicenia prawa cywilnego i karnego w kontekście działań robotów, jednak poza rezolucjami i propozycjami żadne państwo nie ma nawet prawnej definicji robota. Jednak ponieważ technologia rozwija się bardzo szybko to potrzeby takich regulacji rosną, na przykład w kontekście samochodów autonomicznych, więc spodziewamy się nowych ustaleń w niedalekiej przyszłości. Czy ludzkość poradzi sobie z tym problemem, czy może czeka nas zupełny zakaz robotyzacji? Przyszłość pokaże…

Źródła:


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…