Żyjemy w świecie pełnym technologii, w którym Informatyka odgrywa coraz większą rolę. Nieustannie ulepszana technologia, nieustannie rosnące ilości informacji do przetworzenia oraz coraz to lepsze rezultaty osiągane przez Sztuczną Inteligencję prognozują coraz większy wpływ umiejętności informatycznych, w szczególności z zakresu Data Science i SI na wiele obszarów naszego życia. Jednym z obszarów na jaki dane umiejętności mogą mieć wpływ jest obszar sprawiedliwości społecznej. W czasach, gdy na całym świecie doświadczamy oszustw rządów, oszustw finansowych, w niektórych państwach falach propagandy lub działań wojennych sprawiedliwość społeczna znajduje się pod sporym znakiem zapytania.
Społeczna niesprawiedliwość
Termin społecznej niesprawiedliwości, zwłaszcza w ostatnich latach, często używany był jako buzzword. Społeczną niesprawiedliwość można zdefiniować ogólnie jako dysproporcję m.in pomiędzy prawami, otrzymywanymi korzyściami, świadczeniami pomiędzy różnymi subpopulacjami w zakresie takich dziedzin jak zdrowie psychiczne, niepełnosprawność, rasa lub płeć. Typowymi przykładami społecznej niesprawiedliwości są homofobia, rasizm, seksizm lub dyskryminacja.
Haktywiści
Haktywiści są osobami m.in. walczącymi z przejawami społecznej niesprawiedliwości poprzez wykorzystywanie swoich umiejętności z zakresu technik komputerowych, najczęściej mowa tu o hackowaniu. Ich celem jest działanie na rzecz propagowania idei wolnościowych. O haktywistach najczęściej mówimy o grupie ludzi, lecz w rzeczywistości nie jesteśmy w stanie bliżej określić ich ilości. Wynika to z faktu iż większość haktywistów działa anonimowo, co jest logiczne patrząc na to iż ich działania nie zawsze są legalne. Ich popularność rosła wraz z popularnością internetu i obecnie grupy takie jak Anonymous na stałe wpisały się w mainstream. Haktywiści często zajmują się ochroną Internetu jako przestrzeni stosunkowo nieuregulowanej i nie będącej własnością. Wykorzystują oni również swoją wiedzę by rzucać wyzwanie firmom, państwom oraz grupom wyznaniowym działającym w środowiskach poza internetem. Medium haktywizmu jest często elektroniczna penetracja chronionej strony internetowej lub bazy danych i wydobywanie informacji. To może być kwestia wyłączenia sprzętu lub oprogramowania organizacji docelowej. Żadna z tych aktywności nie musi być związana z protestami ulicznymi, choć są one przeprowadzane zbiorowo, oraz czasami w imię wartości — takich jak samookreślenie narodowe i odrzucenie cenzury, której bronią także protesty uliczne. Bez związku z takimi wartościami, zbiorowo wyrażanymi, haktywistyczne działania niewiele by różniły się od samego hakowania.
Anonymous jako organizacja
Anonymous jest grupą aktywistów sprzeciwiającą się korupcji, cenzurze i ograniczaniu wolności obywatelskich, łamaniu praw ludzkich i zwierząt. Ich działalność jest nielegalna i czasami wymierzona przeciwko rządom, nie tylko autorytarnym, ale również takim jakie grupa Anonymous uznaje za skorumpowane.
Anonymous, sami określają się jako zgromadzenie internetowe. W filmie zatytułowanym What/Who is Anonymous deklaruje: “Anonymous to idea, to sztandar, pod którym mogą się zbierać uczciwi i szukający sprawiedliwości świat”. Anonymous nie ma wyraźnego przywództwa, oficjalnego członkostwa czy organizacji centralnej. Swoją działalność inscenizuje zrzeszając różną liczbę osób, komunikując się głównie za pośrednictwem czatów.
Śladów ich pierwszej działalności można szukać w 2006r., kiedy to dali o sobie znać poprzez trollowanie, a mianowicie zablokowanie dostępu do basenu w wirtualnym hotelu na serwisie Habbo. Mieli wtedy ustawione avatary w znak swastyki i rozpowiadali, że w basenie znajduje się HIV. Żarty natomiast szybko się skończyły. Niewiele później wykradli kody źródłowe programu Norton Antywirus2006, wrzucili na serwis Youtube mnóstwo filmów pornograficznych oraz ujawnili dane neonazistów. Nie przejmowali się łamaniem prawa, uzasadniając się działaniem dla celów wyższych.
Anonymous dokonali pierwszego publicznego ogłoszenia 29 lipca 2007 r., umieszczając film na YouTube. Tym filmem Anonymous próbował odpowiedzieć na krytykę Fox News opisującą kolektyw jako grupę “dostawców internetowego dowcipu i trollingu”
Za ich największą akcję uznaje się obronę serwisu WikiLeaks oraz jego twórcy Juliana Assange’a, miało to miejsce w 2010 roku. Zhakowali wtedy strony internetowe MasterCard i Visa, które zablokowały możliwość wpłacania darowizn na WikiLeaks oraz zaczęli rozpowszechniać poufne wiadomości amerykańskich dyplomatów.
Szczyt ich aktywności przypada w okolicach 2012 roku, w latach późniejszych ich działalność została zahamowana, wiele z nich zostało aresztowanych.
Interpol wysłał na początku 2012 roku list gończy za 25 osobami podejrzanymi o ataki hakerskie. Wszystkich zatrzymano, a władze przejęły 250 sztuk sprzętu elektronicznego
W ostatnim czasie Anonymous dali o sobie znać ponownie w związku z wydarzeniami na Ukrainie, kiedy to aktywnie podejmowali działania skierowane przeciwko Federacji Rosyjskiej. Anonymous ogłosili nawet, że udało im się shackować centrum kontroli rosyjskiej agencji kosmicznej Roskosmos, wliczając w to dostęp do satelit szpiegowskich, natomiast nie zostało to potwierdzone przez wiarygodne źródło, a rząd Kremlowski temu zaprzeczył.
Wiadomo jednak, że udało im się zhackować jacht Putina i zmienić wysyłany sygnał. W ramach walki z Rosją Anonymous nie ograniczali się tylko do ataków hakerskich, lecz stosowali również groźby. Przykładem może być ostatni blef, kiedy to zamieślici na Twitterze apel o wypłacenie pieniędzy z banków, twierdząc, że zhakowali konta bankowe i w najbliższej przyszłości zostaną one wyczyszczone. Obecnie organizacja używa tej platformy do propagowania swoich poglądów oraz akcji.
Wpływ SI na zjawiska społecznej niesprawiedliwości
Zjawiska społecznej niesprawiedliwościach występować mogą na wielu płaszczyznach, począwszy od nieproporcjonalnych zarobków przez imigrację, aż po identyfikację podejrzanych. Zwolennicy sztucznej inteligencji w temacie społecznych niesprawiedliwości wskazują potencjalne korzyści, jakie zastosowanie tej technologii mogłoby przynieść.
Pierwszą rzeczą na jaką należy zwrócić uwagę jest sposób w jaki sztuczna inteligencja mogłaby zostać użyta w tej dziedzinie.
S.I. może być wykorzystane jako system wspomagający podejmowanie decyzji przez człowieka lub jako zautomatyzowany system podejmujący decyzje samodzielnie.
Dylemat w tej kwestii, znany jest z wszystkich obszarów w jakich sztuczna inteligecja znalazła zastosowanie np. samochodach autonomicznych. Od wielu lat toczą się debaty czy sieć neuronowa powinna mieć całkowitą kontrolę nad pojazdem czy odpowiedzialność powinna leżeć w rękach człowieka, który w sytuacji nadzwyczajnej sytuacji na drodze powinien przejmować kontrolę nad pojazdem.
W obu tych scenariuszach celem jej użycia byłaby eliminacja istniejących ludzkich BIAS-ów, emocji, zmęczenia, błędów, doświadczenia oraz wielu innych czynników wpływających na podejmowane decyzje.
Jednakże sztuczna inteligencja może wprowadzić do tematu społecznych niesprawiedliwości sporo zamieszania. Efekty jej użycia mogą być zarówno pozytywne, jak i negatywne w zależności od sposobu jej wykorzystania.
Jedną z cech S.I., które przejawiają pozytywne efekty zastosowania jest operowanie na gigantycznych zbiorach danych, S.I. jest w stanie wykryć wzorce oraz zależności, których odkrycie przez człowieka nie byłoby realne.
Z drugiej strony medalu występowanie wspomnianego wcześniej BIAS-u informacyjnego jest w stanie pogłębić zjawisko niesprawiedliwości.
W czasach, gdy sztuczna inteligencja używana jest do wyboru kandydatów na rozmowę o pracę, wyboru studentów lub analizy osobowości poszczególnych osób potencjalne zaburzenie jest w stanie drastycznie skrzywdzić niektóre grupy społeczne, pogarszając już istniejące zjawisko niesprawiedliwości.
Wiele osób utożsamia BIAS z działaniem sieci neuronowej tłumacząc się, że same jej algorytmy wprowadzają taką cechę. Należy jednak pamiętać, że najczęściej jest to spowodowane BIAS-em wprowadzonym przez zbiór danych.
Jako przykład przytoczyć można sytuację, kiedy sztuczną inteligencję wykorzystano próbnie w dziedzinie kryminologii w celu identyfikacji potencjalnych sprawców. Jako zbiór treningowy wykorzystano dane dotyczące populacji w Stanach Zjednoczonych oraz ilości osadzonych w więzieniach.
Z racji tego, że około 12% populacji Stanów zjednoczonych stanowią osoby czarnoskóre, a w więzieniach 38% zaliczane jest do tej grupy sztuczna Inteligencja wysunęła wnioski, że osoby czarnoskóre natychmiast należy traktować jako potencjalnych przestępców.
Innym przykładem może być system pomagający bankom podjąć decyzję w sprawie przyznania kredytu. Mając dane historię finansową, historię zatrudnienia klientów oraz dane demograficzne taki system stara się przewidzieć czy potencjalny wnioskodawca będzie w stanie spłacić tę pożyczkę. Niestety takie podejście jest problematyczne. Jednym ze sposobów, w jaki może pojawić się błąd algorytmiczny w tej sytuacji, są nieświadome uprzedzenia ze strony zarządzających pożyczkami, którzy podejmowali w przeszłości decyzje dotyczące wniosków o kredyt hipoteczny. Jeśli klientom z grup mniejszościowych w przeszłości niesłusznie odmówiono pożyczek, sztuczna inteligencja uzna ogólną zdolność tych grup do spłaty za niższą niż jest. Młodzi ludzie, osoby kolorowe, samotne kobiety, osoby niepełnosprawne i pracownicy fizyczni to tylko niektóre przykłady grup, które mogą być w niekorzystnej sytuacji. W takiej sytuacji stratę ponosi również bank, gdyż traci on potencjalnego klienta. Odmowa pożyczki powoduje kolejny niekorzystny wpis do systemu i tym sposobem problem się pogłębia.
Warto w tym miejscu wspomnieć o tym, że ta stronniczość może być również zamierzona, gdy ludzie kształtują algorytmy SI zgodnie z własnymi preferencjami, dla osobistego zysku. Niezależnie od tego, czy pracodawcy chcą zatrudnić więcej ludzi takich jak oni (białych, mężczyzn), czy też wydziały policji mają nadzieję na zmaksymalizowanie aresztowań wśród niektórych populacji, technologia może zostać zachwiana.
Społeczeństwo nie może polegać na sztucznej inteligencji, aby rozwiązać swoje wyzwania i sprawić, by istniejące nierówności zniknęły, zwłaszcza gdy sztuczna inteligencja opiera się na danych pochodzących z rzeczywistego świata, w którym te nierówności nadal istnieją.
Jak walczyć z tym zjawiskiem?
- Uzyskaj lepsze dane
Ryzyko błędu algorytmicznego można zmniejszyć, uzyskując dodatkowe punkty danych lub nowe rodzaje informacji o osobach, zwłaszcza tych, które są niedostatecznie reprezentowane (mniejszości) lub tych, które mogą pojawiać się niedokładnie w istniejących danych.
- Wstępne przetwarzanie danych
Obejmuje to edytowanie zbioru danych w celu zamaskowania lub usunięcia informacji o atrybutach związanych z ochroną na mocy prawa antydyskryminacyjnego, takich jak rasa lub płeć.
- Zwiększ złożoność modelu
Prostszy model SI może być łatwiejszy do testowania, monitorowania i przesłuchiwania. Ale może też być mniej trafne i prowadzić do uogólnień faworyzujących większość nad mniejszościami.
- Zmodyfikuj system
Logika i parametry systemu SI można proaktywnie dostosowywać, aby bezpośrednio przeciwdziałać błędom algorytmicznym. Na przykład można to zrobić, ustalając inny próg decyzyjny dla grupy znajdującej się w niekorzystnej sytuacji.
- Zmień cel prognozy
Konkretny środek wybrany do kierowania systemem SI bezpośrednio wpływa na sposób podejmowania decyzji w różnych grupach. Znalezienie bardziej sprawiedliwej miary do wykorzystania jako cel przewidywania pomoże zmniejszyć błędy algorytmiczne.
Istnieją również inne, mniej techniczne rozwiązania owych problemów. Jednym z nich może być nie poleganie w stu procentach na decyzjach SI, lecz stosowanie jej jako środka doradczego do podejmowania decyzji. Ponadto zwiększonym inwestycjom w sztuczną inteligencję powinny również towarzyszyć zwiększone inwestycje w badania, programowanie i innowacje społeczne, aby lepiej zrozumieć nierówności w świecie rzeczywistym i zaradzić im. Bez tego rodzaju interdyscyplinarnego podejścia sztuczna inteligencja mogłaby powielać i potencjalnie powiększać nierówności społeczne i niesprawiedliwość.
Podsumowanie:
Umiejętności z zakresu Data Science i Sztucznej Inteligencji stanowią potężną narzędzie, które może zostać wymierzone w dowolną osobę, organizację czy nawet państwo lub użyte w celu polepszenia warunków życia zarówno pojedynczych osób jak i całych subspołeczności. Jest to broń o mocy proporcjonalnej do danych, które są wykorzystywane.
Wykorzystane w odpowiedni sposób umiejętności zdecydowanie mogą przeciwdziałać zjawisku społecznej niesprawiedliwości w sposób reaktywny do zdarzeń z przeszłości oraz proaktywny, aby w przyszłości do nich nie dopuścić, poprzez nagłaśnianie tych zjawisk, wykorzystywanie w projektach powiązanych ze sztuczną inteligencją oraz wyciąganie wniosków z zebranych już danych.
Jednakże połączenie tych możliwości wraz z talentami hakerskimi, przykładowo grupy Anonymous oraz technikami zachowania całkowitej anonimowości w internecie tworzą mieszankę wybuchową, kreując sytuację gdzie potężny cios może zostać wymierzony błyskawicznie, a sprawca pozostanie anonimowy.
Źródła:
https://euideas.eui.eu/2021/06/11/artificial-intelligence-and-inequality-a-solution-or-a-weapon/
https://www.cigionline.org/articles/artificial-intelligence-could-magnify-social-inequality/
https://medium.com/illumination/how-can-data-science-fight-social-injustice-8a31370bd198
https://www.ibm.com/blogs/journey-to-ai/2022/02/call-for-code-for-racial-justice-projects/
https://www.cnet.com/culture/ais-social-justice-problem-its-amplifying-human-bias/
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…