{"id":3841,"date":"2023-05-31T23:00:54","date_gmt":"2023-05-31T23:00:54","guid":{"rendered":"http:\/\/architeles.eu\/ethics\/?p=3841"},"modified":"2023-06-01T07:31:33","modified_gmt":"2023-06-01T07:31:33","slug":"zle-dane-to-zle-systemy-si-przyczyny-stroniczosci-w-si-czy-explainable-ai-to-wlasciwe-rozwiazanie","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2023\/05\/31\/zle-dane-to-zle-systemy-si-przyczyny-stroniczosci-w-si-czy-explainable-ai-to-wlasciwe-rozwiazanie\/","title":{"rendered":"Z\u0142e dane to z\u0142e systemy SI. Przyczyny stroniczo\u015bci w SI, czy Explainable AI to w\u0142a\u015bciwe rozwi\u0105zanie."},"content":{"rendered":"<p><b>Sztuczna inteligencja (SI) odgrywa coraz wi\u0119ksz\u0105 rol\u0119 w naszym spo\u0142ecze\u0144stwie, wp\u0142ywaj\u0105c na wiele dziedzin \u017cycia, od zdrowia i edukacji po przemys\u0142 i us\u0142ugi. Jednak wraz z rosn\u0105cym zainteresowaniem SI pojawi\u0105 si\u0119 coraz cz\u0119\u015bciej pytania o jej nieprzewidywalne konsekwencje, w szczeg\u00f3lno\u015bci zwi\u0105zane z potencjaln\u0105 stronniczo\u015bci\u0105. Wykorzystywanie system\u00f3w AI, kt\u00f3re nie tylko generuj\u0105 wyniki niestosowne lub niesprawiedliwe, ale tak\u017ce pog\u0142\u0119biaj\u0105 nier\u00f3wno\u015bci spo\u0142eczne, staje si\u0119 obiektem trudnej debaty dodatkowo utrudnionej przez brak mo\u017cliwo\u015bci wyja\u015bnienia decyzji podejmowanych przez SI .<\/b><strong>Czy istnieje rozwi\u0105zanie, kt\u00f3re pozwoli nam ostatecznie zrozumie\u0107 i weryfikowa\u0107 systemy SI?<\/strong><!--more--><\/p>\n<p><strong>Brak zrozumienia mechanizm\u00f3w decyzyjnych sztucznej inteligencji<\/strong><\/p>\n<p>Korzystanie z SI do zautomatyzowania podejmowania decyzji bez mo\u017cliwo\u015bci zrozumienia przyczyn uzyskania konkretnego rezultatu stwarza powa\u017cne wyzwania i ryzyko dla naszego spo\u0142ecze\u0144stwa. W ostatnich latach obserwujemy coraz wi\u0119ksze zaufanie i uzale\u017cnienie od system\u00f3w SI w podejmowaniu kluczowych decyzji. Firmy, organizacje i instytucje korzystaj\u0105 z zaawansowanych algorytm\u00f3w i modeli SI, kt\u00f3re analizuj\u0105 ogromne ilo\u015bci danych i generuj\u0105 rekomendacje lub podejmuj\u0105 decyzje w imieniu ludzi. Jednak w tej automatyzacji kryje si\u0119 potencjalne zagro\u017cenie dla transparentno\u015bci i odpowiedzialno\u015bci. Problemy z weryfikacj\u0105 wynik\u00f3w system\u00f3w SI wynikaj\u0105 z kilku czynnik\u00f3w. Jednym z nich jest z\u0142o\u017cono\u015b\u0107 i nieliniowo\u015b\u0107 samych modeli SI, kt\u00f3re cz\u0119sto s\u0105 oparte na zaawansowanych technikach uczenia maszynowego, takich jak g\u0142\u0119bokie sieci neuronowe. Te modele maj\u0105 zdolno\u015b\u0107 do wykrywania zale\u017cno\u015bci i wzorc\u00f3w, kt\u00f3re nie s\u0105 \u0142atwo interpretowalne przez cz\u0142owieka. W rezultacie, proces weryfikacji staje si\u0119 trudny, interpretacja wynik\u00f3w niejasna, a mo\u017cliwo\u015b\u0107 dopuszczenia z\u0142ego SI do podejmowania decyzji wysoka.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3876 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/explainable-ai-examples-1-1.png\" alt=\"\" width=\"748\" height=\"238\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/explainable-ai-examples-1-1.png 1896w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/explainable-ai-examples-1-1-300x96.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/explainable-ai-examples-1-1-1024x326.png 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/explainable-ai-examples-1-1-768x245.png 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/explainable-ai-examples-1-1-1536x489.png 1536w\" sizes=\"auto, (max-width: 748px) 100vw, 748px\" \/><\/p>\n<p><strong>Skutki z\u0142ych system\u00f3w sztucznej inteligencji<\/strong><\/p>\n<p>Szkolenie SI na z\u0142ych danych, mog\u0105 generowa\u0107 b\u0142\u0119dne lub stronnicze wyniki. Mo\u017cliwe skutki uczenia systemu na z\u0142ych danych np. zawieraj\u0105cych uprzedzenia, mo\u017ce prowadzi\u0107 do generowania wynik\u00f3w, kt\u00f3re faworyzuj\u0105 lub dyskryminuj\u0105 pewne grupy spo\u0142eczne. Stronnicze SI mo\u017ce powsta\u0107 z kilku g\u0142\u00f3wnych powod\u00f3w. Jednym z nich jest niedostateczna reprezentacja r\u00f3\u017cnorodno\u015bci w zbiorach danych ucz\u0105cych. Je\u015bli dane ucz\u0105ce s\u0105 niewystarczaj\u0105co r\u00f3\u017cnorodne lub nie odzwierciedlaj\u0105 rzeczywisto\u015bci w pe\u0142nym zakresie, systemy SI mog\u0105 mie\u0107 trudno\u015bci z generalizacj\u0105 i mog\u0105 produkowa\u0107 wyniki stronnicze. Inn\u0105 przyczyn\u0105 stronniczo\u015bci w SI jest obecno\u015b\u0107 uprzedze\u0144 w danych. Uprzedzenia schowanie w danych ucz\u0105cych np. na podstawie p\u0142ci, rasy czy pochodzenia etnicznego systemy SI bez problemu mog\u0105 wy\u0142apa\u0107 i reprodukowa\u0107 w swoich wynikach.<\/p>\n<p><span style=\"font-weight: 400\">Jednym z najbardziej znanych przyk\u0142ad\u00f3w stronniczo\u015bci SI jest algorytm COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) u\u017cywany w ameryka\u0144skich systemach s\u0105dowych do przewidywania prawdopodobie\u0144stwa, \u017ce oskar\u017cony b\u0119dzie recydywist\u0105.\u00a0 Algorytm ten z<\/span><span style=\"font-weight: 400\">e wzgl\u0119du na u\u017cyte dane, wybrany model i og\u00f3lny proces tworzenia algorytmu, przewidywa\u0142 dwa razy wi\u0119cej fa\u0142szywych pozytywnych wynik\u00f3w dla recydywy u czarnosk\u00f3rych oskar\u017conych (45%) ni\u017c u bia\u0142osk\u00f3rych oskar\u017conych (23%).<\/span><\/p>\n<p>Innym przyk\u0142adem odkrytego <span style=\"font-weight: 400\">w pa\u017adzierniku 2019 roku <\/span>z\u0142ego SI jest <span style=\"font-weight: 400\">\u00a0algorytm u\u017cywany w ponad 200 milionach przypadk\u00f3w w ameryka\u0144skich szpitalach do przewidywania pacjent\u00f3w, kt\u00f3rzy prawdopodobnie b\u0119d\u0105 potrzebowali dodatkowej opieki medycznej. Wykorzystane SI wyra\u017anie faworyzowa\u0142o bia\u0142ych pacjent\u00f3w w por\u00f3wnaniu do pacjent\u00f3w czarnosk\u00f3rych. Chocia\u017c sama rasa nie by\u0142a zmienn\u0105 uwzgl\u0119dnian\u0105 w tym algorytmie, to inna zmienna, b\u0119d\u0105ca silnie skorelowana z ras\u0105 zosta\u0142a u\u017cyta &#8211; by\u0142a to historia koszt\u00f3w opieki zdrowotnej. Korelacje historii koszt\u00f3w opieki zdrowotnej z ras\u0105 osoby wykazano po analizie \u017ce z r\u00f3\u017cnych powod\u00f3w pacjenci czarnosk\u00f3rzy generowali na og\u00f3\u0142 ni\u017csze koszty opieki zdrowotnej ni\u017c pacjenci biali z tymi samymi chorobami. Na szcz\u0119\u015bcie w tym przypadku badacze wsp\u00f3\u0142pracowali z firm\u0105 Optum, aby zmniejszy\u0107 poziom stronniczo\u015bci o 80%. Gdyby nie przeprowadzili pocz\u0105tkowych analiz, stronniczo\u015b\u0107 SI mog\u0142aby mie\u0107 powa\u017cny negatywny wp\u0142yw na \u017cycie wielu ludzi.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Przypadkiem zwi\u0105zanym z niewystarczaj\u0105co r\u00f3\u017cnorodnymi danymi wykorzystanymi do uczenia SI jest z\u0142e SI wykorzystywane przez jaki\u015b czas przez firm\u0119 Amazon. W 2015 roku Amazon zda\u0142 sobie spraw\u0119, \u017ce ich algorytm u\u017cywany do rekrutacji pracownik\u00f3w jest stronniczy wobec kobiet. Powodem tego by\u0142 fakt, \u017ce algorytm opiera\u0142 si\u0119 na liczbie z\u0142o\u017conych przez lata \u017cyciorys\u00f3w, a poniewa\u017c wi\u0119kszo\u015b\u0107 aplikuj\u0105cych by\u0142a m\u0119\u017cczyznami, algorytm by\u0142 uczony faworyzowa\u0107 m\u0119\u017cczyzn.<\/span><\/p>\n<p><strong>Explainable AI jako pr\u00f3ba rozwi\u0105zania problemu<\/strong><\/p>\n<p>Wprowadzenie poj\u0119cia Explainable AI (XAI), czyli SI, kt\u00f3re potrafi wyt\u0142umaczy\u0107 swoje decyzje w zrozumia\u0142y spos\u00f3b, otwiera nowe perspektywy dla transparentno\u015bci i zaufania w systemach SI. Explainable AI stawia sobie za cel rozwi\u0105zanie tego problemu poprzez dostarczanie wyt\u0142umacze\u0144 i uzasadnie\u0144 dla podejmowanych decyzji. Przyk\u0142adowymi aplikacjami XAI s\u0105 techniki:<\/p>\n<ul>\n<li>Feature Importance &#8211; polegaj\u0105c\u0105 na ocenie znaczenia poszczeg\u00f3lnych cech dla wynik\u00f3w modelu AI.<\/li>\n<li>LIME (Local Interpretable Model-Agnostic Explanations) &#8211; dostarczaj\u0105c\u0105 lokalnych wyja\u015bnie\u0144 dla decyzji podejmowanych przez modele AI.<\/li>\n<li>SHAP (SHapley Additive exPlanations) &#8211; b\u0119d\u0105ca technik\u0105 opart\u0105 na teorii gier, kt\u00f3ra dostarcza wyja\u015bnie\u0144 opartych na wk\u0142adzie poszczeg\u00f3lnych cech w wyniki modelu AI pozwalaj\u0105c identyfikowa\u0107 kt\u00f3re cechy maj\u0105 najwi\u0119kszy wp\u0142yw na podejmowane decyzje<\/li>\n<\/ul>\n<p>G\u0142\u00f3wnymi zaletami XAI jest przejrzysto\u015b\u0107, wiarygodno\u015b\u0107, etyczne i sprawiedliwe podejmowanie decyzji, zgodno\u015b\u0107 z przepisami w bran\u017cach regulowanych, pozwalaj\u0105c np. w bran\u017cy finansowej wyt\u0142umaczy\u0107 dlaczego system SI odrzuci\u0142 wniosek o kredyt co jest istotne dla zapewnienia uczciwo\u015bci i unikni\u0119cia stronniczo\u015bci.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-3873 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/XAI.png\" alt=\"\" width=\"610\" height=\"430\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/XAI.png 715w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2023\/05\/XAI-300x211.png 300w\" sizes=\"auto, (max-width: 610px) 100vw, 610px\" \/><\/p>\n<p>Istotn\u0105 kwesti\u0105 w na kt\u00f3r\u0105 nale\u017cy zwr\u00f3ci\u0107 uwag\u0119 jest zwi\u0119kszona z\u0142o\u017cono\u015b\u0107 i trudno\u015b\u0107 we wdro\u017ceniu technik XAI szczeg\u00f3lnie dla zaawansowanych modeli AI, takich jak g\u0142\u0119bokie sieci neuronowe. Dodatkowo mo\u017cliwy jest problem w kt\u00f3rym b\u0119dziemy musieli podczas wprowadzania XAI pogodzi\u0107 si\u0119 z potrzeb\u0105 obni\u017cenia dok\u0142adno\u015bci systemu, gdy\u017c w niekt\u00f3rych przypadkach osi\u0105gni\u0119cie interpretowalno\u015bci przeszkadza w uzyskaniu lepszej dok\u0142adno\u015bci. Jednocze\u015bnie w zale\u017cno\u015bci od techniki XAI zapewni ona wi\u0119ksza interpretowalno\u015b\u0107 wynik\u00f3w uzyskanych przez SI jednak techniki te posiadaj\u0105 tak\u017ce ograniczony zakres mo\u017cliwych do przedstawienia wyja\u015bnie\u0144.<\/p>\n<p><strong>Alternatywy dla Explainable AI<\/strong><\/p>\n<p>Pomimo wielu korzy\u015bci, kt\u00f3re niesie ze sob\u0105 XAI, istniej\u0105 pewne sytuacje, w kt\u00f3rych wady XAI lub specyfika rozwi\u0105zywanego problemu powoduje, \u017ce wprowadzenie tego podej\u015bcia jest niemo\u017cliwe lub nieefektywne. W takich przypadkach istniej\u0105 inne podej\u015bcia umo\u017cliwiaj\u0105ce weryfikacje systemu SI takie jak:<\/p>\n<ul>\n<li>Audyt SI czyli przeprowadzenie audytu modeli SI maj\u0105ce na celu sprawdzenie, czy decyzje podejmowane przez systemy Si s\u0105 zgodne z okre\u015blonymi zasadami i kryteriami. Powinien on obejmowa\u0107 analiz\u0119 danych, procesu uczenia modelu, a tak\u017ce ocen\u0119 wynik\u00f3w predykcji w por\u00f3wnaniu z rzeczywistymi wynikami.<\/li>\n<li>Wprowadzenie procedur weryfikacji pozwalaj\u0105cych na sprawdzenie i potwierdzenie, czy modele Si dzia\u0142aj\u0105 zgodnie z oczekiwaniami i spe\u0142niaj\u0105 okre\u015blone kryteria. Procedury te powinny zawiera\u0107 wykonywanie test\u00f3w statystycznych , por\u00f3wnanie wynik\u00f3w z innymi niezale\u017cnymi \u017ar\u00f3d\u0142ami czy wykorzystanie istniej\u0105cych benchmark\u00f3w.<\/li>\n<li>Human-in-the-Loop polegaj\u0105cym na wprowadzeniu cz\u0142owieka w proces podejmowania decyzji SI poprzez integracj\u0119 interakcji cz\u0142owieka z systemem SI. Umo\u017cliwia on u\u017cytkownikom monitorowanie, zrozumienie i ewentualne korygowanie decyzji podejmowanych przez systemy SI na podstawie wiedzy i intuicji u\u017cytkownika.<\/li>\n<li>Procesy dokumentacji: Dokumentowanie procesu tworzenia, uczenia i wdra\u017cania modeli AI w celu zapewnienia przejrzysto\u015bci i mo\u017cliwo\u015bci \u015bledzenia decyzji podejmowanych przez systemy AI.<\/li>\n<\/ul>\n<p><strong>Podsumowanie<\/strong><\/p>\n<p>Wraz z coraz powszechniejszym wykorzystaniem SI do podejmowania znacz\u0105cych decyzji potrzebna jest mo\u017cliwo\u015b\u0107 wyt\u0142umaczenia powod\u00f3w konkretna decyzja zosta\u0142a podj\u0119ta. Mo\u017cliwo\u015bci SI do wykrywania zale\u017cno\u015bci i wzorc\u00f3w, kt\u00f3re nie s\u0105 \u0142atwo interpretowalne przez cz\u0142owieka szczeg\u00f3lnie utrudnia to zadanie. Jednocze\u015bnie niemo\u017cliwe jest wykluczenie b\u0142\u0119d\u00f3w ludzkich podczas pracy nad SI czy te\u017c podczas zbierania danych co wyklucza mo\u017cliwo\u015b\u0107 tworzenia zawsze idealnych system\u00f3w kt\u00f3rym mo\u017cna zaufa\u0107. Dlatego wyja\u015bnienie na jakiej zasadzie uzyskany konkretny rezultat przez SI jest potrzebny do zaufania jej lub te\u017c do jej poprawy.<\/p>\n<p>Techniki tworzenia Explainable AI zapewniaj\u0105 przynajmniej cz\u0119\u015bciowe rozwi\u0105zanie tego problemu jednak nie zawsze s\u0105 mo\u017cliwe do wprowadzenia np. poprzez zwi\u0119kszenie wymaganych zasob\u00f3w obliczeniowych krytyczne systemy kt\u00f3rych skuteczno\u015b\u0107 dzia\u0142ania zale\u017cy od pr\u0119dko\u015bci podj\u0119cia decyzji nie b\u0119d\u0105 dzia\u0142a\u0107 optymalnie je\u017celi wykorzystano by w nich XAI. W takich sytuacjach dost\u0119pne s\u0105 inne opcje takie jak Audyty AI. Pozwalaj\u0105 one zweryfikowa\u0107 dzia\u0142anie SI bez ingerencji w dzia\u0142anie samej systemu SI zachowuj\u0105c ja w optymalnie stworzonej wersji.<\/p>\n<p>Ostateczna decyzja dotycz\u0105ca zastosowania XAI w konkretnym przypadku zale\u017cy od wielu czynnik\u00f3w, takich jak rodzaj modelu AI, kontekst biznesowy, priorytety i dost\u0119pne zasoby. Je\u017celi istnieje mo\u017cliwo\u015b\u0107 wprowadzenia tych technik do systemu SI i nie istniej\u0105 \u017cadne oczywiste przeciwskazania zastosowanie ich powinno przynie\u015b\u0107 pozytywny skutek podczas weryfikacji dzia\u0142ania systemu oraz zmniejszy koszty jego utrzymania.<\/p>\n<p><strong>Literatura:<\/strong><\/p>\n<ul>\n<li>https:\/\/towardsdatascience.com\/real-life-examples-of-discriminating-artificial-intelligence-cae395a90070<\/li>\n<li>https:\/\/www.softwareimprovementgroup.com\/unraveling-the-incomprehensible-the-pros-and-cons-of-explainable-ai\/#:~:text=An%20area%20gaining%20significant%20attention,unwanted%20bias%2C%20manipulation%20and%20unfairness.<\/li>\n<li>https:\/\/www.ibm.com\/watson\/explainable-ai<\/li>\n<li>https:\/\/www.pewresearch.org\/internet\/2021\/06\/16\/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade\/<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Sztuczna inteligencja (SI) odgrywa coraz wi\u0119ksz\u0105 rol\u0119 w naszym spo\u0142ecze\u0144stwie, wp\u0142ywaj\u0105c na wiele dziedzin \u017cycia, od zdrowia i edukacji po przemys\u0142 i us\u0142ugi. Jednak wraz z rosn\u0105cym zainteresowaniem SI pojawi\u0105 si\u0119 coraz cz\u0119\u015bciej pytania o jej nieprzewidywalne konsekwencje, w szczeg\u00f3lno\u015bci zwi\u0105zane z potencjaln\u0105 stronniczo\u015bci\u0105. Wykorzystywanie system\u00f3w AI, kt\u00f3re nie tylko generuj\u0105 wyniki niestosowne lub niesprawiedliwe, [&hellip;]<\/p>\n","protected":false},"author":136,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3841","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/3841","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/136"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=3841"}],"version-history":[{"count":4,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/3841\/revisions"}],"predecessor-version":[{"id":3878,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/3841\/revisions\/3878"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=3841"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=3841"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=3841"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}