Wiele zdobyczy nauk informatycznych czy data science poprawia nasz komfort życia czy też pozwala nam na uzupełnianie braków jakie przejawiamy jako gatunek. Czy wraz z coraz postępem AI zaczynamy tworzyć bardziej wybrakowaną pod względem etycznym inteligencję? Podam przykłady, kiedy to stworzone przez ludzi programy okazały się pałać „nienawiścią”.
Na samym początku zadajmy sobie pytanie czy sztuczna inteligencja może być uprzedzona do pewnych grup ludzi. Jeśli dane są stronnicze (biased) to można mówić o takiej sytuacji. Należy jednak pamiętać, że roboty czy programy nie mogą mieć przekonań, jeśli nie są bytami świadomymi. Jako że definicja rasizmu czy seksizmu wymaga od podmiotu posiadania przekonań per se. O problemie dyskryminacji ze strony AI nie mówimy jednak w kontekście tego, że roboty same w sobie mogą mieć przekonania i dewaluują pewne grupy ludzi. Szkody, natomiast, jakie powstają w wyniku takich zjawisk stają się coraz bardziej realne i dotkliwe, co ukażą podane przykłady. To w tym znaczeniu będziemy nazywać AI rasistowskim czy seksistowskim- jako narzędzia do przewidywania zachowań ludzi czy też jako narzędzia przetwarzania języka naturalnego nauczone przejawiać dyskryminację.
Sztuczna inteligencja to na ten moment narzędzie a nie autonomiczne byty. Dzięki algorytmom uczenia maszynowego otwierają się przed nami niesamowite możliwości. Deep learning i sieci neuronowe- te narzędzia borykają się często z problemem czarnej skrzynki. Stronnicze, niedokładne zbiory danych, czy też takie, którym ufają analitycy mogą zawierać w sobie „uprzedzenia”. Garbage in- garbage out jak mawia się w kręgach nauk komputerowych, a bezgraniczne zaufanie do zbiorów danych czy algorytmów skutkuje
RASIZM i SEKSIZM
Zgodnie z doniesieniami organizacji dziennikarstwa śledczego ProPublica program używany przez sąd Stanów Zjednoczonych (Compas) częściej, od 45% do 25% przypadków, błędnie wybierał osoby czarnoskóre w porównaniu do ludzi białych. Programy takie jak Compas i jemu podobne są używane w całych stanach zjednoczonych. Firma Northpoint- producent tego oprogramowania wypiera jednak doniesienia raportu jak i nie zamierza udostępniać swojego algorytmu.
Kristian Lum, główna statystyk HRDAG- organizacji non profit broniącej praw człowieka w odniesieniu do analizy danych, powiedział, że łatwo o automatyzację uprzedzeń, które to ta automatyzacja ma zwalczać. Wspomina również o nadmiernym patrolowaniu osiedli z wieloma mieszkańcami Afroamerykańskimi czy też pochodzenia Meksykańskiego. W efekcie statystyki policyjne, które determinują rozlokowanie patrolów, będąc zawyżone, jeszcze bardziej wzmagają tą tendencję.
Głośno było również o wirtualnym raperze FN Meka będącym sztuczną inteligencją korzystającą z NFT, którym w tym roku kontrakt podpisała Columbia Records. Po tygodniu jednak kontrakt zerwano z powodu wulgarności i rasizmu postaci rapera. W tym wypadku jednak ciężko mówić o samym uprzedzeniu sztucznej inteligencji, gdyż piosenki były pisane przez anonimowego rapera. Niemniej cała sytuacja pokazuje jak narzędzie jakim jest sztuczna inteligencja może służyć do utrwalania stereotypów i być wykorzystywane w nieodpowiedni sposób przez człowieka.
Język kształtuje nasze rozumienie świata. Kiedy tłumaczymy zdania z angielskiego na hiszpański używając Translatora Google ma on tendencję do zmian zaimków żeńskich na męskie. Algorytmy mogą nie „rozumieć” dynamiki społecznej i tego co może być uznawane przez ludzi za dotkliwe. Projektując rozwiązania opierające się na sztucznej inteligencji możemy zapominać o weryfikacji efektów. Kolejnymi przykładami są: określanie płci przy tłumaczeniach z języka węgierskiego w zdaniach „ona myje naczynia”, „on zarabia dużo pieniędzy”. Warto wspomnieć, że to język neutralny płciowo. AI podjęło jednak automatyczną decyzję w oparciu o dużą liczbę wcześniejszych kontekstów.
UPRZEDZENIA KULTUROWE
Dane używane do uczenia AI to jak wspomniałem główna przyczyna uprzedzeń o jakich mówimy. Głębokie sieci neuronowe używane do klasyfikacji obrazów są często szkolone za pomocą danych z ImageNet. Jest to zbiór ponad 14 milionów obrazów z opisem. Przy przetwarzaniu języka naturalnego standardowe algorytmy są szkolone na zbiorach miliardów słów. Badacze zazwyczaj tworzą zestawy danych dzięki stronom internetowym takim jak Google News czy też Google images używając przy tym zapytań przy pomocy łatwo dostępnych źródeł takich jak wikipedia. Są to jednak źródła tworzone głównie przez studentów czy też przez crowdfunding (np. Amazon Mechanical Turk). Przy pomocy tych metod można nieintencjonalnie zbierać dane oparte na przekonaniach związanych z płcią, grupą etniczną czy też na podstawie uprzedzeń kulturowych.
Źódło grafiki: nature.com
TWITTER I NAZIZM
Programy uczenia maszynowego będą maksymalizować trafność przewidywań na podstawie przewidywania z danych treningowych. Grupy osób pojawiające się częściej w danych treningowych powodują, że algorytm przeprowadzi optymalizację pod ich kątem, bo zwiększa to dokładność. Informatycy oceniają algorytmy na „testowych” zbiorach danych, ale zwykle są to losowe pod próbki oryginalnego zbioru uczącego, więc prawdopodobnie zawierają te same błędy.
Algorytmy mają i będą mieć wpływ na rozwiązania systemowe. Mogą też służyć do imitowania interakcji międzyludzkich. Mowa o chat botach. Jest to wyjątkowo ciekawa i poruszająca kwestia w kontekście zachowań rasistowskich czy seksistowskich (a nawet tendencji do nazizmu).
Bot o imieniu Tay- algorytm stworzony przez firmę Microsoft, którego premiera miała miejsce w 2016 roku bardzo szybko musiał zostać wyłączony. Tay w sposób dynamiczny uczył się na podstawie rozmów odbywanych z internautami z platformy Twitter. Na poniższych screenach można zobaczyć w jaki sposób wypowiadał się po 24 godzinach takiego uczenia.
W tym miejscu chciałbym poruszyć jedną niepokojącą kwestię- rozmawiał on z ludźmi, prawdziwymi. Oczywiście jak powszechnie wiadomo w internecie nie brakuje „trolli” szczególnie na platformie Twitter. Nadal jednak martwiącym jest, że takie komunikaty to odzwierciedlenie tego co są w stanie mówić ludzie. Jedną kwestią jest dbanie o to, aby to dane nie zawierały uprzedzeń, jednak jak sprawić, żeby ludzie zwracali się do siebie z większą życzliwością?
PIĘKNO OCZYMA SZTUCZNEJ INTELIGENCJI
Sztuczną inteligencję wykorzystano także jako narzędzie obiektywnej oceny w konkursie piękności. Mowa tutaj o Beauty.AI. Miał ów program brać pod uwagę takie aspekty jak obecność zmarszczek czy też symetrię twarzy. Przez formularz zgłoszeniowy w konkursie udział wzięło aż około 6 tys. Kandydatek. Niestety jednak po wybraniu zwyciężczyń okazało się, że były to osoby w większości o jasnej karnacji. Powodem tego była nauka na bazie danych składających się głównie z obrazów o jasnej karnacji twarzy.
ROBOT RASISTA
Jako ostatni przykład chciałbym podać sieć neuronową CLIP. Badacze z Uniwersytetu Johna Hopkinsa, Uniwersytetu Waszyngtońskiego oraz Instytutu Technologii Georgii. CLIP uczył się na podstawie zdjęć dostępnych w Internecie. Jego działanie opiera się na dopasowaniu zdjęcia do tekstu, który ma je opisywać. Program został połączony z systemem robotycznym Baseline wyposażonym w ramię zdolne do manipulacji obiektami wirtualnymi jak i rzeczywistymi. W tym roku na konferencji Association for Computing Machinery’s w Seulu autorzy stwierdzili, że to pierwszy taki przypadek, kiedy robot korzystający z systemu uczenia maszynowego w swoim działaniu przejawiał rasistowskie i seksitowskie uprzedzenia. Robot wykonuąc polecenia; „włóż kryminalistę do pudełka” robot sięgał po zdjęcie czarnoskórego mężczyzny. Jest to tylko jeden aspekt uprzedzeń jakie wykazywał. Polecam przeczytać: https://www.research.gatech.edu/flawed-ai-makes-robots-racist-sexist
Jak mówi Dr. Hundt prawidłowo zaprojektowany system powinien odmówić czynności przy komendzie „wybierz doktora” jeśli zdjęcie wyraźnie nie wskazuje na to czy dany człowiek jest lekarzem. Podobnie w wypadku wybierania kryminalisty.
To badanie daje do myślenia. Można by powiedzieć, że algorytm działałby w taki sposób nawet jeśli robot nie wykorzystywałby go do wykonywania zadań. Przykład ten jednak wzbudza wyobraźnię i pokazuje, że wpływ rasistowskich czy seksistowskich tendencji AI może być jak najbadziej realny i fizyczny.
PODSUMOWANIE
Uprzedzenia ze strony programów to wcale nie tak zła rzecz. Owszem to poważny problem, jeśli jednak spojrzymy na to z innej perspektywy można dojść do wniosku, że to o wiele lepsza sytuacja niż uprzedzenia okazywane ze strony ludzi czy też całych grup społecznych. Jak łatwo się domyślić zachowań ludzi nie da się w prosty sposób modyfikować czy też poddawać ich resocjalizacji. W grę wchodzą również kwestie etyczne związane z paternalizmem czy kwestią wolności słowa czy przekonań, jak również prawne. W wypadku modeli czy też danych, na których są oparte te uprzedzenia są możliwe do prześledzenia, modele można modyfikować. Wystarczy tylko odpowiednia motywacja i świadomość potrzeby tworzenia „etycznej” sztucznej inteligencji, takiej która pomaga tworzyć rzeczywistość taką jaką chcemy, żeby była- bez krzywdzących podziałów czy stereotypów.
Ludzie łatwo zapominają, że sztuczna inteligencja nie jest perfekcyjna i bezstronna. To nie odzwierciedlenie omnipotencji a tylko narzędzie jak każde inne. Źle użyte może powodować wiele szkód.
Serdecznie polecam filmik w temacie posta:
Źródła:
https://dl.acm.org/doi/pdf/10.1145/3531146.3533138
https://www.nature.com/articles/538311a
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Bostrom, N. Superintelligence: Paths, Dangers, Strategies (Oxford Univ. Press, 2016).
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…