Home » UJ 2022/23 » Jak budować zaufanie w systemach opartych na sztucznej inteligencji. Kwestia wyjaśniania i analiza porównawcza człowiek/maszyna.

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 117
  • 643
  • 25 021
  • 7 313
  • 101

Jak budować zaufanie w systemach opartych na sztucznej inteligencji. Kwestia wyjaśniania i analiza porównawcza człowiek/maszyna.

Spread the love

O sztucznej inteligencji słyszał już niemal każdy, ale stosunkowo niewielka część naszego społeczeństwa zetknęła się z tą innowacją bezpośrednio. Nie wpływa to jednak na nasze spore oczekiwania wobec sztucznej inteligencji. Wierzymy w to, że może przyczynić się do pozytywnych zmian na płaszczyznach społecznej i gospodarczej. Wykorzystanie całkowitego potencjału sztucznej inteligencji wiąże się ze stawieniem czoła etycznym wyzwaniom związanym z coraz powszechniejszym wykorzystaniem AI. Godna zaufania sztuczna inteligencja może przynieść wiele korzyści takich jak na przykład lepsza opieka zdrowotna, bezpieczniejszy i bardziej ekologiczny transport, wydajniejsza produkcja czy też tańsze i przede wszystkim bardziej zrównoważone źródła energii.

"Publiczne i prywatne organizacje w coraz większym stopniu wdrażają technologie oparte na sztucznej inteligencji. Kluczowym wyzwaniem staje się zatem utrzymanie zaufania klientów. Służy temu wspieranie pozytywnych relacji między sztuczną inteligencją a konsumentami. Raport pokazuje, że największe społeczne i kulturowe wątpliwości  wciąż budzi proces gromadzenia danych, szczególnie na potrzeby opieki zdrowotnej i sektora publicznego(...)" 
- Szef zespołu CIS Projects & Consulting Eastern Europe w Capgemini, Beniamin Poznański
Źródło: https://www.ibm.com/pl-pl

Według badań przeprowadzonych przez ośrodek badawczy NMS Market Research na zlecenie IBM, 92 proc. Polaków słyszało już o sztucznej inteligencji. Zaledwie jedna czwarta z nas miała bezpośredni kontakt z AI. Aż 8 na 10 Polaków spodziewa się szerszego zastosowania sztucznej inteligencji w ciągu najbliższych 3 lat. Wykorzystanie sztucznej inteligencji w codziennym życiu jest najbardziej oczywiste dla młodych osób w wieku 18-24 lata, biegłych w korzystaniu z najnowszych technologii, to właśnie oni najchętniej przewidują rozwój sztucznej inteligencji w nadchodzących latach (88 proc.). Co ciekawe, takie odpowiedzi pojawiały się równie często wśród respondentów w wieku 55-65 lat (84 proc.). Prawie jedna trzecia Polaków wskazuje, że sztuczna inteligencja w pozytywny sposób przyczyni się do rozwoju medycyny.

Działania, które są niezbędne przy budowaniu etycznych systemów AI.

Jak wynika z raportu Capgemini aby wyjść na przeciw oczekiwaniom konsumentów powinniśmy się trzymać 7 kluczowych zasad. Stosowanie AI powinno posiadać jasno określony cel i ocenę ogólnego oraz potencjalnego wpływu na otoczenie. Powinniśmy wdrążać systemy oparte na sztucznej inteligencji z korzyścią dla społeczeństwa i środowiska. Poza dbałością o transparentność zasad wykorzystywania systemów inteligentnych za pomocą narzędzi technologicznych powinniśmy uwzględnić zasady różnorodności i integracji w całym cyklu życia systemów AI. Powinniśmy humanizować doświadczenia ze sztuczną inteligencją i zapewnić nadzór człowieka i solidność technologiczną systemów AI. Przede wszystkim powinniśmy skupić się na ochronie prywatności ludzi i powierzyć właśnie im sprawczość i odpowiedzialność za interakcje ze sztuczną inteligencją.

Komisja Europejska proponuje szereg działań, które mają zapewnić dalsze doskonalenie obszarów sztucznej inteligencji, oraz przepisy gwarantujące wiarygodność technologii. Mają one zapewnić bezpieczeństwo i etyczną przejrzystość, AI powinno pozostać bezstronne i bezwarunkowo kontrolowane przez człowieka. Systemy wykorzystujące sztuczną inteligencję kategoryzowane są według poziomu ryzyka.

Źródło: https://commission.europa.eu

Niedopuszczalne ryzyko Zakazane będzie wszystko, co będzie stanowiło zagrożenie dla obywateli UE: od prowadzącej przez rządy oceny punktowej obywateli (tzw. social scoring) po zabawki z asystentem głosowym, które zachęcają dzieci do niebezpiecznych zachowań.

Wysokie ryzyko – Tyczy się newralgicznych obszarów takich jak infrastruktura krytyczna (np. transport) gdzie istnieje zagrożenie dla życia i zdrowia obywateli, ale także w obszarach takich jak:

  • elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotami),
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji)
  • podstawowe usługi prywatne i publiczne (np. punktacja kredytowa uniemożliwiająca obywatelom uzyskanie pożyczki)
  • sprawowanie wymiaru sprawiedliwości i procesy demokratyczne (np. stosowanie prawa do konkretnego zbioru faktów)

Wszystkie zastosowania będą dokładnie oceniane przed wprowadzeniem do obrotu i przez cały cykl rynkowy.

Ograniczone ryzyko  Systemy sztucznej inteligencji, takie jak chatboty, podlegają minimalnym obowiązkom w zakresie przejrzystości, które mają umożliwić podejmowanie świadomych decyzji osobom wchodzącym w interakcję z tego rodzaju treściami. Użytkownik może wówczas podjąć decyzję o kontynuowaniu lub rezygnacji z korzystania z danej aplikacji.

Minimalne ryzyko – Swobodne korzystanie z zastosowań takich jak gry wideo z wykorzystaniem sztucznej inteligencji lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji należy do tej kategorii, na którą nowe przepisy nie mają wpływu. Systemy te charakteryzują się minimalnym a nawet zerowym zagrożeniem dla praw i bezpieczeństwa obywateli.

Nowe przepisy obowiązujące dostawców systemów sztucznej inteligencji wysokiego ryzyka mają skutecznie zwiększać kontrolę i powierzać ją w ręce społeczności, która będzie mogła zgłaszać poważne incydenty i nadużycia związane z nieprawidłowym działaniem systemów AI.

Wiele firm wykorzystuje sztuczną inteligencję w obszarach niskiego ryzyka, często wyłącznie w celu uzyskania wniosków z analiz. Na razie, jeżeli technologia zastępuje podejmowanie decyzji przez człowieka, dzieje się to pod jego nadzorem. Autonomiczne podejmowanie decyzji przez AI wciąż jeszcze jest w powijakach, ale przypadki użycia AI rozwijają się w coraz szybszym tempie. Z czasem AI będzie odpowiedzialna za podejmowanie większej liczby decyzji, i będą to decyzje o większym znaczeniu. Przykładem są chociażby szeroko znane testy wykorzystywania sztucznej inteligencji w projektach autonomicznych samochodów.

Dlaczego sztuczna inteligencja różni się od innych technologii?

Sztuczna inteligencja ostatecznie doprowadzi do transformacji wielu przedsiębiorstw i branż. Na tempo jej rozwoju wpływa jednak brak zaufania. Obecnie bez świadomości ryzyka i odpowiednich ram oraz środków kontroli, zastosowania sztucznej inteligencji nie wykroczyły znacząco poza koncepcje i odosobnione rozwiązania.

W przeciwieństwie do innych technologii AI sama adaptuje się do nowych warunków, ucząc się podczas jej stosowania. Decyzje, jakie AI podejmuje dzisiaj mogą się różnić od tych podejmowanych jutro. Ważne jest, aby zmiany te były stale monitorowane, tak aby weryfikować, że podejmowane decyzje pozostają właściwe i wysokiej jakości. Sztuczna inteligencja używa do uczenia danych historycznych. Jakie niesie to ryzyko? Zastanówmy się, jaki ma to wpływ na decyzje dotyczące zatrudnienia. Czy dane historyczne uwzględniają uprzedzenia, z jakimi mierzyły się kobiety i przedstawiciele mniejszości? Czy algorytmy powtarzają błędy przeszłości pomimo wdrożenia procesów zarządczych, które mają im zapobiegać? Czy system zapobiega niesprawiedliwości i przestrzega prawa?

Cathy O’Nail’s TedTalk – The era of blind faith in big data must end

“Weapons of Math Destruction” Cathy O’Neil Źródło: WIRED
"Algorithms don't make things fair... They repeat our past practices, our patterns. They automate the status quo. That would be great if we had a perfect world, but we don't." - Cathy O'Nail

Decyzje podejmowane przez AI powinny być zgodne z szerszymi normami etycznymi i społecznymi. Standardy etyczne człowieka opierają się na wielu elementach: rodzinie, kulturze, religii i społeczności. Zespoły zajmujące się rozwojem AI często składają się głównie z mężczyzn rasy białej lub pochodzenia azjatyckiego i nie odzwierciedlają różnorodności występującej na świecie. Czy osobiste wartości tych osób wpływają na wartości, które chcemy zastosować w tych sytuacjach? Musimy także zadać sobie pytanie, czy systemy AI robią to, czego od nich oczekujemy. Wykorzystanie sztucznej inteligencji jest coraz powszechniejsze, ale i tak niewiele organizacji ma wystarczająco dojrzałe zasoby, aby monitorować jej funkcjonowanie.

Jakie ryzyko wiąże się z nieudanym systemem AI?

Ryzyko występuje zarówno w obszarze prawnym, finansowym jak i reputacji. Błędy systemów AI mogą wiązać się z brakiem zgodności z przepisami dotyczącymi zatrudnienia lub innymi regulacjami. W jednym przypadku pewna firma handlowa straciła 440 mln USD ze względu na błąd oprogramowania – i to w zaledwie 45 minut.

Błąd komputera, który kosztował 440 mln dolarów

Algorytmy są omylne i łatwo można je naruszyć. Badając algorytmy wskazujące treść obrazów, zespół badaczy odkrył, że zmieniając w zdjęciu jedynie kilka pikseli można sprawić, że system pomyśli, że zabawkowy żółw jest pistoletem. Nie są to argumenty przeciwko stosowaniu AI. Są to jednak ostrzeżenia wskazujące, jak ważne jest upewnienie się, że AI rzeczywiście wykonuje pierwotnie zamierzone zadania, przy istnieniu rygorystycznych procesów i środków kontroli. Jeżeli mamy polegać na AI podejmującej decyzje i prowadzącej nasze samochody, wymaga to zaufania. Bez niego technologia się nie przyjmie lub będzie wymagała takiego nadzoru ze strony człowieka, że zaprzeczy to wydajności i innym korzyściom.

Źródło: Getty Images, fot: metamorworks

Stworzenie ram do korzystania z AI i zarządzania ryzykiem może wydawać się skomplikowane, ale proces ten jest podobny do tworzenia środków kontroli, polityki i procesów już stosowanych w odniesieniu do ludzi. Już teraz oceniamy ludzkie zachowania w odniesieniu do zbioru norm i gdy tylko ludzie zaczynają poza te normy wykraczać – jak w sytuacji, gdy uprzedzenia wpływają na ich ocenę – reagujemy. Ryzyko związane z technologią AI zależy od sposobu jej wykorzystania. Na przykład, oprogramowanie do obrazowania oznaczające prywatne zdjęcia ludzi wiąże się ze znacznie niższym profilem ryzyka niż oprogramowanie stosowane do wykrywania pieszych przechodzących przez drogę.

"Tak jak każda technologia, która zmienia świat, AI wiąże się z ryzykiem. Istnieją jednak dobrze określone sposoby na zarządzanie potencjalnymi minusami przy jednoczesnej kapitalizacji ogromnych plusów. Sztuczna Inteligencja może być świetnym narzędziem wspierającym człowieka, ale musimy zdawać sobie sprawę z ograniczeń tej technologii."
- Nigel Duffy, Globalny lider ds. AI w EY

Dlaczego zaufanie do AI jest ważne?

Biorąc pod uwagę wszytko co zostało wcześniej napisane można łatwo zauważyć, jak bardzo sztuczna inteligencja jest już teraz obecna w dzisiejszym świecie. Istnieje wiele systemów, które mają realny wpływ na życie ludzkie, na przykład programy pomagające lekarzom w diagnostyce niektórych schorzeń albo samo prowadzące się samochody. Aby jednak móc korzystać z tych korzyści, które niesie ze sobą rozwój sztucznej inteligencji musimy mieć zaufanie do tych systemów. Musimy być pewni, że działają one poprawnie i są odpowiednio zabezpieczone przed błędami czy nadużyciami. Raczej nikt nie wsiadłby do taksówki bez kierowcy nie posiadając przekonania, że nasza podróż będzie bezpieczna a prawdopodobieństwo wypadku jest niskie.   Zaufanie do AI jest również ważne, ponieważ pozwala na jej bardziej efektywne wykorzystanie a co za tym idzie jej nieustanny rozwój. Istnieje wiele sposobów budowania takiego zaufania. Niżej napisze o najbardziej istotnych z nich.

1. Transparentność

Transparentność systemów AI oznacza udostępnianie przez autorów informacji o tym, jak działa ich system, jak został zaprojektowany, jakie są jego ograniczenia. Pozwala to  użytkownikom na lepsze zrozumienie jego funkcjonowania a co za tym idzie zwiększa ich zaufanie do takiego systemu. Informacje które mogą być udostępnione to:

  • Architektura: opisanie modelów, algorytmów, sieci neuronowych i zależności między nimi.
  • Dane: jakie dane zostały użyte do trenowania systemu, jakie zbiory danych są używane i jakie są ich rozmiary.
  • Metryki: jakie metryki są używane do oceny jakości działania systemu, jakie są ich wartości i jakie ograniczenia są związane z ich użyciem.
  • Decyzje: jakie dane i modele były używane do podejmowania decyzji przez system, jakie są jego metody wyboru i jakie są jego ograniczenia.

Transparentność jest szczególnie ważna w przypadku systemów AI, które podejmują trudne decyzje o poważnych konsekwencjach (na przykład dotyczące kredytów lub ubezpieczeń). W takich przypadkach, użytkownicy muszą mieć pewność, że system działa zgodnie z oczekiwaniami i że jego decyzje są sprawiedliwe i obiektywne. Przykładem może trochę mniej poważnym ale napewno nadal występującym w debacie publicznej jest firma OpenAI, która niedawno udostępniła swój nowy model ChatGPT. Autorzy mogą być przykładem zachowania zasady transparentności, gdyż na ich stronie możemy znaleźć mnóstwo informacji o tym jak to oprogramowanie działa. Dostępna jest także praca naukowa training language models to follow instructions with human feedback, która została napisana przez autorów tego narzędzia. Można z niej się dowiedzieć naprawdę bardzo specyficznej i konkretnej wiedzy na temat tego modelu.

2. Testowanie i walidacja

Jest to dwuetapowy proces, gdzie pierwszym jest testowanie danego oprogramowania. Polega ono na przeprowadzaniu testów systemu z użyciem danych wejściowych i wyjściowych (oczekiwane wyniki). Dzięki temu można zweryfikować, czy system działa zgodnie z oczekiwaniami i czy jest skuteczny. Takie podejście pozwala także na identyfikację błędów i ich usunięcie przed wprowadzeniem systemu na rynek. Walidacja natomiast polega na sprawdzeniu funkcjonowania systemu w jego rzeczywistym środowisku oraz czy jest odpowiedni dla celów, do jakich ma być wykorzystywany. Proces ten jest istotny również w celu dobrego dopasowania do grupy docelowej.
Zarówno testowanie jak i walidacja służy ulepszeniu ostatecznego produktu i dostosowaniu go do potrzeb użytkowników. Dobrze przeprowadzone mogą znacznie podnieść zaufanie do systemu AI z uwagi na jego zoptymalizowane względem konsumentów.

Przykładem może być firma Google i jej projekt DeepMind, który ma na celu stworzenie sztucznej inteligencji zdolnej do uczenia się i rozwiązywania problemów na podobnym poziomie co człowiek lub nawet lepszym. DeepMind jest testowany i walidowany za pomocą różnych metod, w tym za pomocą gier, które stanowią trudne wyzwanie dla systemów AI. Jednym z najsłynniejszych przykładów jest wykorzystanie DeepMind do wygrania gry Go. Jest to chińska gra strategiczna, w której gracze stawiają pionki na planszy, starając się zająć jak najwięcej przestrzeni.

3. Analiza porównawcza człowiek/maszyna

Analiza porównawcza człowiek-maszyna polega na porównywaniu wyników działania systemu AI z wynikami człowieka w danym zadaniu. Pozwala to na ocenę skuteczności i dokładności systemu AI oraz na identyfikację jego ograniczeń. Przykładem analizy porównawczej człowiek-maszyna jest testowanie systemów OCR (Optical Character Recognition), które służą do rozpoznawania tekstu na obrazach (zdjęciach). W tym celu, systemy te są porównywane z ludźmi w takim samym zadaniu oraz następnie oceniane na podstawie ich wyników i skuteczności.  Zebranie takich danych z kolei pozwala na zwiększenie zaufania użytkowników do tych systemów, gdyż może to pokazać ich słabe i mocne strony. Dodatkowo może to zmniejszyć powszechny strach przed sztuczną inteligencją, który wynika z niewiedzy i faktycznego lęku przed jej możliwościami. Zmierzenie różnic między człowiekiem a maszyną w jakimś aspekcie może pokazać czarno na białym w czym AI jest lepsze a czym gorsze od człowieka.

Przykładowe wykrywanie tekstu przez OCR.
Wykrywanie tekstu pisanego ręcznie z użyciem OCR.

Dodatki:

Sztuczna inteligencja uczy się latać i walczyć

Sztuczna inteligencja w prawie karnym i jej stosowanie przez policję i organy wymiaru sprawiedliwości w sprawach karnych

Źródła:

https://www.ibm.com/blogs/ibm-poland/badanie-ibm-polowa-polakow-ufa-sztucznej-inteligencji/

https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_pl

https://tech.wp.pl/blad-komputera-ktory-kosztowal-440-mln-dolarow,6034792433222785a

https://www.ey.com/en_pl/innovation/what-is-intelligence-without-trust-

http://www.jatit.org/volumes/Vol83No2/15Vol83No2.pdf

OCR vs. HTR or “What is AI, actually?”

 


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…