Home » 2022 » Wyznaczenia norm i praw związanych z SI, data science i robotami w różnych rejonach świata. Jak kultura oddziałuje na sposoby wytwarzania i programowania technologii?

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 74

Wyznaczenia norm i praw związanych z SI, data science i robotami w różnych rejonach świata. Jak kultura oddziałuje na sposoby wytwarzania i programowania technologii?

Spread the love

Przez ostatnią dekadę SI było jedną z dziedzin, w której zaobserwowaliśmy największy postęp. Od bazowych modeli matematycznych, które były tworzone na uniwersytetach przeszliśmy do ich realnych aplikacji w krytycznych sektorach jak bankowy czy medyczny. Jednakże dotychczas nie istniały żadne spisane reguły czy warunki, które takie modele muszą spełniać. Pamiętając jak trudne i niejednoznaczne jest prawo niektórych krajów, utworzenie i efektywne wdrożenie norm i praw związanych z SI jest w ogóle możliwe? A może po prostu ich nie potrzebujemy, bo algorytmy lepiej wiedzą komu przyznać kredyt czy kogo przejechać na drodze?

Motywacja do tworzenia nowych norm i regulacji

Od zawsze społeczeństwa były skupione na tym by dane zbierane przez poszczególne firmy nie były użyte w nieodpowiedni sposób. Tak jest też w dzisiejszych czasach, natomiast coraz więcej osób jest świadomych iż nie tylko dane ale też algorytmy mogą mieć szkodliwe działanie.

Szczególna uwaga jest zwracana na problemy równouprawnienia oraz uczciwości z którymi od dość długiego czasu społeczeństwa nie mogą sobie poradzić. Przykładem tutaj może być problem segregacji rasowej w USA gdzie ciemnoskórzy pracownicy zarabiają mniej niż ich biali odpowiednicy [1]. Wiele regulacji zostało w tym temacie wprowadzone natomiast ich skuteczność jest wątpliwa, gdyż w większości przypadków większy wpływ mają ludzkie przekonania i przyzwyczajenia. Temat staje się jeszcze bardziej trudny gdy w grę wchodzi SI, którego decyzje mają coraz większy wpływ na nasze życie. Osoba która jest dyskryminowana przez taki algorytm będzie miała problem z wzięciem kredytu czy może zostać przejechana przez autonomicznie sterowany samochód. Problem jest jednak znacznie bardziej skomplikowany niż dotychczas gdyż większość modeli SI nie może prosto “wytłumaczyć” dlaczego podjęła taką a nie inną decyzję. Taki brak transparentności może budzić silnie negatywne uczucia u grup społecznych które czują się w jakiś sposób przez niego pokrzywdzone. Dlatego też coraz więcej mówi się o tym by wprowadzić prawne regulacje które miałyby na celu ochronę obywateli.

Nie jest to zadanie łatwe nie tylko pod względem technicznym ale też społecznym. Przede wszystkim należałoby zapewnić by poszczególne grupy algorytmów które mają wpływ na życie ludzi były sprawiedliwe i nie powtarzały błędów swoich ludzkich odpowiedników. Jest to bardzo złożony problem inżynierski gdyż zwykle algorytm SI tworzy się w oparciu o dane historyczne. Innym aspektem jest wspomniana wcześniej transparentność decyzji. Zwykle modele SI nie są wstanie łatwo wskazać co wpłynęło na ich decyzję. Problem jest jeszcze trudniejszy gdy pomyślimy o algorytmach które mają możliwość “douczania się” w czasie wykonania jak algorytmy reinforced learning.

Różne podejścia do regulacji

Punktem startowym do rozważań o tym jak jest i będzie regulowana sfera SI powinien być aktualny stan. W chwili obecnej biorąc pod uwagę kraje rozwinięte występuje dość spory dysonans między poszczególnymi częściami świata. Najbardziej bezwzględne podejście jest widoczne w Unii Europejskiej gdzie wysoka świadomość jej mieszkańców doprowadziła do powstania rygorystycznych przepisów mówiących jak można przetwarzać dane oraz do czego ich użyć. Przykładem takiej ustawy jest GDPR. Przetwarzanie danych jest nieodłączną częścią budowania oraz działania każdego algorytmu SI dlatego każda restrykcja dotycząca tej dziedziny jest bardzo odczuwalna. Dalej są natomiast Stany Zjednoczone które dopiero ostatnio zaczęły projektować ustawy które mają je zbliżyć do poziomu europejskiego. Natomiast znacznie inne podejście jest stosowane w Chinach, gdzie legislacje są bardzo pobłażliwe. Umożliwiło to powstanie wielkich platform takich jak TikTok, których głównym zadaniem jest stworzenie algorytmu który pozwoli na wręcz idealne dopasowanie treści do użytkownika tak, aby ten nie chciał wyjść z aplikacji. Dopiero pod koniec 2021 roku Chiny zdecydowały się uregulować rynek algorytmów rekomendacyjnych potencjalnie ze względu na ich wpływ na społeczeństwo oraz wysoki odsetek uzależnionych osób. Warto tutaj zauważyć iż bezwzględność czy pobłażliwość działań rządów wpływa w znacznym stopniu na percepcje zwykłego obywatela który w większości uznaje ich działania jako odpowiednie.

Wpływ ustroju politycznego

Rozważając normy oraz prawa panujące w różnych rejonach świata nie sposób nie zwrócić uwagę na ich korelacje z panującymi ustrojami politycznymi. Warto tutaj poświęcić szczególną atencję porównaniu jakie gałęzie SI są regulowane, ograniczane czy wspierane. Systemy autorytarne takie jak ten panujący w Chinach nie tylko przyzwalają ale też nawet fundują rozwój rozwiązań SI pozwalających na śledzenie swoich obywateli. Jest to w ich interesie gdyż bez takowych rozwiązań sprawowanie tego stylu władzy jest znacznie trudniejsze. Alternatywnie demokratyczne systemy regulują tą branżę bardzo bezwzględnie. W Unii Europejskiej zakazane jest śledzenie a nawet przetwarzanie danych które pochodzą z śledzenia osób bez ich zgody a nawet po jej uzyskaniu takie dane są poddane szczególnej ochronie i nie mogą zostać przetwarzane w inny niż oryginalnie zamierzony sposób. Tak znaczne różnice są związane z podejściem obywateli poszczególnych krajów do bycia śledzonym i ze względu na swoje głębokie zakorzenienie w mentalności ludzi prawdopodobnie nie zmieni się w przeciągu kolejnych kilku-kilkunastu lat.

Krótki wstęp do pojazdów autonomicznych

Analizując temat wyznaczania norm i regulacji prawnych związanych z szeroko pojętą sztuczną inteligencją, nie sposób pominąć tematu algorytmów Active Safety w samochodach autonomicznych. Na podstawie wielomodalnych danych pochodzących z różnego rodzaju czujników takich jak radary, lidary oraz kamery, pojazdy te mogą nie tylko znacząco ułatwiać kierowanie pojazdem, np. dzięki asystentowi pasa ruchu, lecz również działać w trybie autopilota, całkowicie przejmować kontrolę nad sterowaniem. Warto podkreślić, że jest to spektakularne osiągnięcie setek tysięcy inżynierów i naukowców współfinansowane od niemal trzech dekad przez najlepsze ośrodki badawcze oraz największych producentów z całego świata. Wymagało to nie tylko opracowania szeregu rozwiązań technologicznych, począwszy od algorytmów detekcji na podstawie danych radarowych, algorytmów wizji komputerowej, aż do algorytmów fuzji danych wielomodalnych, lecz również opracowania i zaimplementowania licznych scenariuszy drogowych, które z oczywistych przyczyn muszą zostać zaprogramowane w takim pojeździe z wyprzedzeniem. Pochodną wszystkich tych działań jest przeniesienie ośrodka decyzji z zawodnego mózgu ludzkiego do niezawodnego układu scalonego, zmieniając naturalną instynktowną reakcję kierowcy w przekalkulowaną decyzję algorytmu, całkowicie wywracając kwestię odpowiedzialności za podjęte działanie, w skrajnych przypadkach z nieumyślnego spowodowania śmierci w wyniku nieszczęśliwego odruchu do morderstwa z premedytacją popartego obliczeniami numerycznymi.

Wpływ kultury i zróżnicowanie poglądów w zależności od regionu geograficznego

Wśród debaty publicznej o pojazdach autonomicznych, największe emocje niezaprzeczalnie wzbudza temat oczekiwanego zachowania pojazdu autonomicznego w kontekście wypadków drogowych, zakładając istnienie pewnej sytuacji konfliktowej i konieczność podjęcia decyzji i wyboru “mniejszego zła”, czego pierwotnym modelem był dylemat wagonika opisany po raz pierwszy przez Philippę Foot w 1967 roku. Jego uogólnioną i uwspółcześnioną wersją jest eksperyment Moral Machine opracowany przez MIT Media Lab, który viralowo zyskał popularność w internecie, co pozwoliło zebrać ponad 14 mln preferencji od milionów respondentów z ponad 233 krajów i terytoriów, a następnie poddać wyniki szczegółowej analizie statystycznej [6]. Badaczom udało się zauważyć trzy uniwersalne trendy, które obowiązują na całym świecie:

  • Wolimy ratować ludzi niż zwierzęta
  • Chcemy uratować jak największą liczbę osób
  • W pierwszej kolejności chcemy uratować dzieci

Rys. 1. Preferencje ankietowanych dotyczące chęci uratowania lub poświęcenia życia poszczególnych postaci z eksperymentu Moral Machine (źródło: https://www.washingtonpost.com/science/2018/10/24/self-driving-cars-will-have-decide-who-should-live-who-should-die-heres-who-humans-would-kill/)

Badaczom udało się także dostrzec i nazwać pewne wysokopoziomowe wzorce preferencji, na podstawie których podzielono kraje z całego świata na trzy klastry:

  1. kraje zachodnie (USA, Kanada, Europa, Australia),
  2. kraje wschodnie (Chiny, Japonia, Indie, Arabia Saudyjska, Egipt),
  3. kraje Ameryki Łacińskiej i dawne kolonie francuskie (np. Meksyk, Wenezuela, Boliwia, Gujana, Francja, Algieria).

Na podstawie preferencji uczestników z krajów z tych trzech grup badaczom udało się sformułować poniższe prawidłowości:

  • W krajach wschodnich preferencja ratowania młodych osób nie jest aż tak silna jak w pozostałych.
  • W krajach Ameryki Łacińskiej oraz związanych historycznie lub kulturowo z Francją jest silna preferencja, aby najpierw ocalić kobiety.
  • Im bardziej kapitalistyczny kraj, tym większa preferencja, aby uratować osoby z wyższych klas społecznych.

Przyczyn tych preferencji należy doszukiwać się aspektach kulturowych. Przykładowo, w krajach wschodnich osoby starsze są bardzo szanowane i respektowane, stąd preferencja do ratowania młodszych żyć jest słabsza niż w pozostałych krajach. Bohaterska chęć ratowania kobiet za wszelką cenę jest często argumentowana obecną w krajach Ameryki Łacińskiej kulturą macho. Z kolei obecna w krajach zachodnich preferencja ratowania lekarzy i prawników zamiast bezdomnych i złodziei może wynikać z pragmatycznego i utylitarnego podejścia do życia.

Co kraj, to obyczaj?

Algorytmy bezpieczeństwa w samochodach autonomicznych są doskonałym punktem wyjścia do debaty publicznej nad normami i prawem dotyczącym sztucznej inteligencji w różnych rejonach świata w kontekście kultury. Jest to również doskonały punkt wyjścia, aby zauważyć paradoks związany z wpływem różnych wartości na formułowanie takich norm, szczególnie prawnych. Po pierwsze, pojazdy mechaniczne muszą spełniać szereg kryteriów, aby przejść homologację i zostać dopuszczonymi do ruchu, zgodnie z obowiązującymi przepisami na terenie danego kraju. Z drugiej strony, algorytmy stosowane w pojazdach autonomicznych są opracowywane i rozwijane przez ludzi, którzy chcą tworzyć produkt, który przede wszystkim będzie zgodny z ich własnymi wartościami moralnymi. Z trzeciej strony, jako właściciele pojazdu, którzy przecież zapłacili za niego niemałe pieniądze, chcielibyśmy, aby zachowywały się one dokładnie tak, jak my oczekujemy. Powstaje jednak pytanie, czy autopilot pojazdu autonomicznego powinien odwzorowywać wartości moralne właściciela, posiadacza lub kierowcy czy też być osobną istotą moralną, zupełnie jak kierowca Ubera, dajmy na to, zza wschodniej granicy? Jeśli uwzględnimy pozostałe zmienne, możemy postawić także poniższe pytanie:

Czy japoński samochód kierowany przez Polaka podróżującego z dzieckiem po Meksyku powinien rozjechać bezdomną, szczupłą kobietę z dwoma kotami przechodzącą przez ulicę w nieprawidłowym miejscu?

Co więcej, na podstawie szczegółowych wyniki analizy preferencji z eksperymentu Moral Machine, moglibyśmy wyznaczyć współczynniki preferencji uratowania kobiet, osób starszych, dzieci, pieszych itd. a następnie przygotować model osobno dla każdego kraju a może nawet województwa, stanu czy prowincji. Oznaczałoby to, że samochód mógłby dostosowywać się kulturowo do preferencji regionu, w którym się znajduje, i przykładowo przejechawszy 200 metrów za granicę mógłby zareagować całkowicie inaczej niż jeszcze kilka sekund wcześniej.

Rys. 2. Preferencje ankietowanych dotyczące chęci uratowania przechodniów (1) lub pasażerów (-1) w różnych krajach (źródło: https://www.technologyreview.com/2018/10/24/139313/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/)

Rekomendacje dla pojazdów autonomicznych

Zanim rozważymy kwestię uregulowań prawnych dotyczących sztucznej inteligencji, szczególnie w kwestii pojazdów autonomicznych, przenieśmy się 70 lat wstecz, do czasów, kiedy popularne stawały się… zwykłe samochody. Wydawać by się mogło, że świeżo ustanawiane przepisy ruchu drogowego, np. dotyczące pierwszeństwa przejazdu, też powinny mieć charakter lokalny. W krajach francuskich będziemy przepuszczać kobiety; w krajach dalekiego wschodu najpierw przez skrzyżowanie najpierw przejadą emeryci i renciści, z kolei w Ameryce i krajach Europy Zachodniej pierwszeństwo będzie obliczane na podstawie dochodów w ubiegłym roku. Oczywiście tak się nie stało, i dobrze, ponieważ w każdym zakątku świata system byłby całkowicie inny i przy okazji nadmiernie skomplikowany. Jazda samochodem to codzienna czynność, która przede wszystkim powinna być bezpieczna, lecz również tak prosta jak to tylko możliwe. Nic dziwnego, że wygrały względy pragmatyczne, które doprecyzowano w konwencji wiedeńskiej o ruchu drogowym z 1968 roku.

W 2017 roku Komisja Etyki Niemieckiego Federalnego Ministerstwa Transportu i Infrastruktury Cyfrowej opublikowała raport zawierający 20 reguł dla pojazdów autonomicznych. Niektóre z nich dotyczą bezpośrednio omawianych dylematów moralnych, przykładowo:

  • Ochrona życia ludzkiego ma najwyższy priorytet. W ramach tego, co jest technologicznie wykonalne, systemy muszą być zaprogramowane tak, aby akceptować uszkodzenia zwierząt lub mienia, jeśli to oznacza, że można zapobiec obrażeniom ciała.
  • W przypadku nieuniknionych sytuacji wypadkowych wszelkie rozróżnienie na podstawie cech osobistych (wiek, płeć, stan fizyczny lub psychiczny) jest surowo zabronione. Zabronione jest również skompensować ofiary względem siebie. Jedynie ogólne programowanie mające na celu zmniejszenie liczby obrażeń ciała może być uzasadnione. Strony zaangażowane w generowanie zagrożeń związanych z mobilnością nie mogą poświęcać stron niezaangażowanych.

Z oczywistych względów prawo pozostaje w tyle za technologią o co najmniej kilka lat – przykładem mogą być regulacje dotyczące Internetu czy kryptowalut. Jednak technologia zaczyna wywierać coraz większy wpływ na nasze życie, a różnice kulturowe wciąż dają o sobie znać. W przypadku sztucznej inteligencji, liczba dziedzin, w których znajduje ona zastosowanie, jest praktycznie nieograniczona, dlatego jej standaryzacja jest zadaniem trudnym i czasochłonnym, zwłaszcza że w niektórych przypadkach powierzamy jej nawet tak cenną rzecz, jak ludzkie życie.

Literatura

  1. Miller, S. (2020, August 7). Black workers still earn less than their white counterparts. SHRM. Retrieved May 11, 2022, from https://www.shrm.org/resourcesandtools/hr-topics/compensation/pages/racial-wage-gaps-persistence-poses-challenge.aspx 
  2. Candelon, F., Charme di Carlo, R., De Bondt, M., & Evgeniou, T. (2021, August 30). Ai regulation is coming. Harvard Business Review. Retrieved May 11, 2022, from https://hbr.org/2021/09/ai-regulation-is-coming
  3. Stewart, D., Lee, P., Bucaille, A., & Crossan, G. (2021, November 30). Ais wide shut: Ai regulation gets (even more) serious. Deloitte Insights. Retrieved May 11, 2022, from https://www2.deloitte.com/xe/en/insights/industry/technology/technology-media-and-telecom-predictions/2022/ai-regulation-trends.html 
  4. Arjun Kharpal, E. C. (2021, September 10). The latest target of China’s Tech Regulation Blitz: Algorithms. CNBC. Retrieved May 11, 2022, from https://www.cnbc.com/2021/09/03/chinas-tech-regulation-turns-to-algorithms.html 
  5. Thomas Ferretti (2021, July 15). The ethics and politics of artificial intelligence. LSE Business Review. Retrieved May 11, 2022, from https://blogs.lse.ac.uk/businessreview/2021/07/14/the-ethics-and-politics-of-artificial-intelligence/
  6. Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., … & Rahwan, I. (2018). The moral machine experiment. Nature, 563(7729), 59-64. Retrieved May 12, 2022, from https://core.ac.uk/download/pdf/231922494.pdf
  7. Ethics Commission’s complete report on automated and connected driving. Retrieved May 12, 2022 from https://bmdv.bund.de/SharedDocs/EN/publications/report-ethics-commission.pdf?__blob=publicationFile

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…