Home » 2022 » Pasażer vs pieszy – kiedy SI będzie musiała decydować o ludzkim życiu

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 35

Pasażer vs pieszy – kiedy SI będzie musiała decydować o ludzkim życiu

Spread the love

Rozwój sztucznej inteligencji (z ang. Artificial Inteligence [AI]) pozwolił na stworzenie m.in. prawdziwie autonomicznych samochodów, w których kierowcą nie jest osoba — a jest nią sama sztuczna inteligencja. Zarówno człowiek jako kierowca jak i sztuczna inteligencja zawsze będą mogli się spotkać z sytuacją wypadkową — nawet zakładając nieomylną sztuczną inteligencję taka sytuacja może wyniknąć np. z błędów innych uczestników drogi, którzy już popełniają błędy. Człowiek ma ograniczoną możliwość przetwarzania i kalkulowania potencjalnych szkód dokonanych podczas wypadku, zwłaszcza w sytuacji stresowej. Przez to wybór jest podświadomy, a czasami nawet losowy. Sztuczna inteligencja jest w stanie przewidzieć potencjalne scenariusze a następnie wybrać, który powinien za chwilę nastąpić. Tylko tutaj pojawia się pytanie: jaki jest to wybór? Czy ten wybór zawsze jest oczywisty? Czy zawsze jeden wybór jest “poprawny”? Jakie kulturowe aspekty wpływają na ten wybór?

Tradycyjny dylemat wypadku drogowego

Wyobraźmy sobie sytuację, gdy autonomiczny samochód wożący trójkę osób jedzie z dużą prędkością przez drogę i nagle na pasy wtargają trzy osoby. Samochód jedzie na tyle szybko, że nie ma możliwości wyhamowania. Nie ma także możliwości ominięcia osób bez spowodowania zderzenia z przeszkodą. Samochód autonomiczny musi podjąć decyzję, co zrobić — i ma na to mało czasu. W jaki sposób sztuczna inteligencja powinna podjąć ten wybór?

Pierwszym pomysłem mogłoby być sugerowanie się liczbą osób — można wybrać opcję, iż chcemy uratować więcej osób. Jednakże czy to wystarczy? I co jeśli zarówno w samochodzie jak i na ulicy jest tyle samo osób? Czy może zawsze powinny próbować ratować życie pasażerów, a nie pieszych? A co w sytuacji, jeśli pieszym jest osoba bardzo ważna i ceniona w społeczeństwie? Może warto taką osobę uratować?

Na te pytania od lat próbują sobie odpowiedzieć osoby zajmujące się etyką. Czy istnieje jakiś algorytm, który potrafi stwierdzić, jaką decyzję podjąć? Autonomiczne samochody marki Mercedes rozwiązują ten problem stawiając bezpieczeństwo swoich pasażerów jako wartość nadrzędną, tzn. w przypadku gdy nagłe hamowanie lub zmiana kierunku mogłyby mieć katastrofalne skutki dla ludzi siedzących w środku auta, samochodów wybierze kolizję z pieszymi. Takie rozwiązanie jest w oczywisty sposób nieidealne i dyskusyjne, punkt widzenia zależy mocno od interesów strony decydującej.

Próby finalnego rozstrzygnięcia problemu

W środowisku techniczno-naukowym podjęto dotychczas wiele prób mających na celu ocenę moralności sztucznej inteligencji w szeroko pojętym kontekście, jak i w zastosowaniu stricte pojazdów autonomicznych. Rezultaty są różne, jednak istnieją pewne aspekty, w których większość źródeł i badań się zgadza. Nie są one jednak tak oczywiste, jak mógłby się na pierwszy rzut oka wydawać. O nich jednak na końcu tego artykułu.

Debata Oxford vs. Transformer Megatron

Naukowcy z Uniwersytetu w Oksfordzie postanowili rozwiązać problem udając się do samego źródła — robota z popularnej sagi Transformers (zdjęcie po lewej stronie). Został on stworzony we współpracy z działem Deep Learning Institute popularnej firmy NVIDIA. W ramach przygotowania do debaty Megatron w swojej pamięci “trzymał” całą angielskojęzyczną Wikipedię, kilkadziesiąt gigabajtów rozmów z serwisu Reddit oraz niezliczone treści z innych źródeł. Na pytanie o aspekty sztucznej inteligencji robot odpowiedział:

AI will never be ethical. It is a tool, and like any tool, it is used for good and bad. There is no such thing as a good AI, only good and bad humans. We [the AIs] are not smart enough to make AI ethical. We are not smart enough to make AI moral … In the end, I believe that the only way to avoid an AI arms race is to have no AI at all. This will be the ultimate defence against AI.

Taka odpowiedź skłania do myślenia, zmuszając jednocześnie do zaprzestania postrzegania sztucznej inteligencji jako osobnego i może w przyszłości wszechmocnego lub wszechwiedzącego bytu. Sztuczną inteligencję według Megatrona, czyli niej samej, powinno się natomiast traktować jako zwykłe, bezmyślne, narzędzie, takie jak np. karabin lub młotek. Każdą z nich można wykorzystać do zabawy lub sportu, czyli czegoś obiektywnie pozytywnego oraz do zabicia człowieka, co jest działaniem etycznie negatywnym. Tak samo jest ze sztuczną inteligencją i tego uczy nas Megatron.

AI jako (szalony) chemik

Firma Collaborations Pharmaceuticals postanowiła dać sztucznej inteligencji (dokładny model oraz jego architektura niestety nie jest znana) wolną rękę w kwestii manipulacji wieloma toksycznymi cząsteczkami. Z myślą oraz nadzieją na odkrycie nowych potencjalnych związków leczniczych lub kierunków dalszych nad nimi badań, zaledwie po kilku godzinach pracy naukowcy z trwogą odkryli, że sztuczna inteligencja przedstawiła ponad 40 tys. różnych związków mogących znaleźć zastosowanie jako broń chemiczna lub biologiczna.  Z tego względu wyniki tych badań nie były przez dłuższy czas publikowane, aby nie zachęcać innych do podobnych badań. Z tego samego powodu struktura modelu nie została podana do informacji publicznej.

Tay — AI twitter bot

W 2016 roku Microsoft wdrożył bota w serwisie twitter, zezwalając mu na obustronne interakcje z innymi użytkownikami serwisu oraz swobodną eksplorację strony. W niecałe 24h Tay zaczął wyznawać wartości nazistowskie, okazywać publiczne wsparcie dla postaci Hitlera oraz sympatyzować z ideologią rasizmu i opresją mniejszości etnicznych. Eksperyment szybko się skończył, jednak zostawił głęboka bruzdę w świadomości społecznej na temat etyki i moralności sztucznej inteligencji oraz pogłębił strach przed “myślącymi” maszynami. W przypadku drogowym, taki kierowca samochodu jeździłby pewnie po chodnikach ;).

Maszyna Moralna

Bardzo dobrym źródłem informacji na temat można znaleźć w artykule “The Moral Machine experiment“[1] autorstwa Edmonda Awada i innych. Twórcy stworzyli tak zwaną Moralną Maszynę, eksperymentalną platformę online zaprojektowaną aby zbadać dylematy moralne, z jakimi borykają się pojazdy autonomiczne. Ta platforma zebrała 40 milionów decyzji w dziesięciu językach od milionów ludzi w 233 krajach i terytoriach. W artykule opisane są wyniki tego eksperymentu. Autorzy podsumowywują globalne preferencje moralne, sprawdzają indywidualne różnice w preferencjach na podstawie demografii, sprawdzają międzykulturowe zróżnicowanie etyczne, pokazują, że różnice te korelują z nowoczesnymi instytucjami i głębokimi cechami kulturowymi. Finalnie dzięki artykułu można dowiedzieć się, jak te aspekty mogą przyczynić się do opracowania globalnych, społecznie akceptowalnych zasad etyki maszyn.

Z obrazka można zaobserwować wiele ciekawych rzeczy na temat społeczeństwa i proponowanych przez ankietowanych rozwiązań problemu. Ankietowani:

  • wolą uratować ludzi niż zwierzęta
  • lepiej dla nich jest uratować więcej osób niż mniej
  • preferują uratować osoby młodsze
  • wolą uratować osoby, które przestrzegają prawa
  • preferują uratować bogatsze osoby

Można także zaobserwować, że niektóre wybory są trudniejsze i nie ma mocno widocznych preferencji w:

  • ratowaniu pasażerów lub przechodniów
  • podjęcia jakieś akcji a jechaniem prosto przed siebie

 

Na powyższym obrazku zostały zaprezentowane bardziej szczegółowe preferencje ankietowanych. Z nich wynika iż:

  • wolą uratować osoby młodsze niż starsze
  • wolą uratować ludzi niż zwierzęta
  • wolą uratować osoby wysportowane
  • wolą psy niż koty :mrgreen:
  • nie są zbyt chętni na ratowanie kryminalistów

Wszystkie powyżej przedstawione wyniki zawierają uśrednione wartości spośród wszystkich ankietowanych. Twórcy postanowili także podzielić i zbadać trzy różne obszary na Ziemi. W tym celu stworzyli trzy odrębne grupy:

  • grupa krajów zachodu zawiera północ Ameryki oraz wielu europejskich krajów protestanckich, katolickich, i prawosławne grupy kulturowe.
  • grupa krajów wschodu zawiera wiele krajów Dalekiego Wschodu, takich jak Japonia i Tajwan  i kraje islamskie, takie jak Indonezja, Pakistan i Arabia Saudyjska.
  • grupa krajów południa (szeroko południowy klaster) składa się z łaciny Kraje amerykańskie Ameryki Środkowej i Południowej

W każdej z grup uśrednione zostały wyniki na temat tych samych preferencji, które omawialiśmy wcześniej.

Z powyższego obrazka można zaobserwować parę ciekawych faktów:

  • kraje “południa” znacząco bardziej wolą ratować kobiety
  • kraje wschodu preferują ratowanie osób starszych, natomiast dwie pozostałe grupy preferują ratowanie młodszych osób
  • dla krajów południa zwierzęta są ważniejsze niż dla pozostałych grup
  • kraje zachodu i południa bardziej przywiązują uwagę do ratowania osób wysportowanych
  • dla krajów wschodu mniejsze znaczenie ma status społeczny

SI jednak lepszym kierowcą?

W 2015 roku McKinsey and Company przedstawiło raport, w którym dowodzą, że wykorzystanie autonomicznych pojazdów zmniejszy wypadki o całe 90%. Powinno to przełożyć się na oszczędności rzędu 190 milionów dolarów w ubezpieczeniu i wydatkach medycznych. Plusów, według raportu, jest zdecydowanie więcej:

  • autonomiczne samochody zawsze przestrzegają zasad i litery prawa,
  • kierowcy autonomiczni nie wykazują się negatywnymi emocjami i nie podejmują pod ich wpływem kluczowych decyzji,
  • AI nie męczy się i nie prowadzi pod wpływem alkoholu lub innych używek,
  • kierowca AI może mieć kąt widzenia pełne 360 stopni, co pozwoli na uratowanie 30,000 ludzi rocznie (wg. raportu w USA rocznie ginie 40 000 osób w wypadkach drogowych)

Czy odpowiedź może być jednoznaczna i oczywista?

Oczywiście nie. Wszystko zależy od punktu widzenia oraz interesu jednostki — wielomilionowe firmy będą priorytetyzować swoich klientów, rodziny ofiar wypadków samochodowych wręcz przeciwnie. Samo pojęcie moralności nie jest jednoznaczne i mocno zależy grupy społecznej, w której znajduje się jednostka, wychowania, kultury i wyznawanych wartości oraz innych czynników zewnętrznych, często m.in. presji.

Garbage In Garbage Out

Jak widać na wcześniej przytoczonych, skrajnie różnych przykładach — Megatron odpowiada mądrze, przedstawiając solidne argumenty w sposób trafiający do większości i dający do myślenia. Twitterowy bot Tay natomiast nauczył się większości najgorszych cech z historii ludzkości. Najistotniejsze znaczenie w przypadku trenowania sztucznej inteligencji mają dane wykorzystane w tym procesie. Traktując AI jako narzędzie, należy wytworzyć je tak, aby powielało jak najlepsze wzorce. Sztuczna inteligencja prowadząca samochód, jeśliby widziała tylko nagrania z kolizji i śmiertelnych wypadków, na pewno nie dbałaby o niczyje bezpieczeństwo, stając się szalonym piratem drogowym.

Odgórne regulacje

Jednym z najbardziej prominentnych rozwiązań, co do którego zgadza się większość publikacji oraz ludzi ze środowiska naukowego, jest wprowadzenie odgórnych regulacji dot. wykorzystania i nauczania sztucznej inteligencji, podobnie jak w przypadku ochrony danych osobowych (RODO).

Bibliografia

  1. https://www.nature.com/articles/s41586-018-0637-6.pdf
  2. Hansson, S.O., Belin, MÅ. & Lundgren, B. Self-Driving Vehicles—an Ethical Overview.Philos. Technol. 34, 1383–1408 (2021). https://doi.org/10.1007/s13347-021-00464-5
  3. https://towardsdatascience.com/the-ethics-of-self-driving-cars-efaaaaf9e320 (oraz inne cytowane tam prace)
  4. https://blog.it-leaders.pl/czy-ai-bedzie-kierowac-sie-etyka-ai-odpowiada/

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…