Sztuczna inteligencja (AI) odgrywa coraz większą rolę w naszym codziennym życiu, wpływając na decyzje biznesowe, systemy opieki zdrowotnej, edukację i administrację publiczną. Jednak jednym z kluczowych wyzwań związanych z implementacją AI jest budowanie i utrzymywanie zaufania użytkowników wobec tych systemów. W artykule opiszę technologiczne i socjotechniczne metody budowania zaufania oraz omówię różne sytuacje w których owo zaufanie zostało nadszarpnięte wraz z obawami i nadziejami jakie ludzie mogą mieć wobec AI.
Wraz ze wzrostem zaawansowania i użyteczności narzędzi sztucznej inteligencji (AI), ludzie i branże chętnie wdrażają je w celu zwiększenia wydajności, zaoszczędzenia pieniędzy i informowania ludzi o podejmowanych przez nich decyzjach. Ale czy te narzędzia są gotowe na prawdziwy świat? AI to narzędzie, co oznacza, że samo w sobie nie jest ani dobre ani złe, dopiero jego użycie można rozpatrywać kategoriach moralnych, natomiast warto pamiętać, że, jak każde narzędzie, AI może mieć większe lub mniejsze wady, co w przypadku tak potężnego narzędzia może mieć poważne konsekwencje. Rozprzestrzenianie się sztucznej inteligencji rodzi pytania o zaufanie, stronniczość, prywatność i bezpieczeństwo, a istnieje niewiele ustalonych, prostych odpowiedzi. W miarę jak sztuczna inteligencja jest coraz bardziej włączana do codziennego życia, coraz więcej naukowców, branż i zwykłych użytkowników bada jej wpływ na społeczeństwo. W ciągu ostatnich lat mocno rozwija się dziedzina etyki AI, starając się okiełznać nietypowe problemy jakie AI może stwarzać, jak chociażby odpowiedzialność za działania podjęte przez AI czy kompas moralny, którym AI powinno się kierować. To wszystko ma wpływ na to na ile jako ludzie jesteśmy w stanie zaufać AI i powierzyć jej odpowiedzialne zadania.
Na co zwraca się uwagę przy używaniu AI
Weźmy pod uwagę zwykłych ludzi, którzy mogą korzystać z AI w codziennym życiu. Aby mogli oni zaufać AI, muszą oni wierzyć, że system działa w sposób przewidywalny, niezawodny, etyczny i bezpieczny. Jest to zjawisko wielowymiarowe, obejmujące aspekty technologiczne, psychologiczne i społeczne. Niektóre pytania jakie można zadać, które są związane z zaufaniem wobec AI:
- Czy system jest przejrzysty w działaniu? (czy rozumiem jak on działa)
- Czy działa zgodnie z normami etycznymi?
- Czy chroni moje dane?
- Czy rozumiem, jak system podejmuje decyzje?
Technologiczne metody budowania zaufania
- Przejrzystość systemu
Zdecydowanie warto czemuś zaufać, jeśli rozumiemy, jak to działa. Z AI jest taki problem, że sami twórcy czasami nie do końca rozumieją, jak ich produkt działa i jak się będzie zachowywał.
Zaufanie użytkowników wzrasta, gdy mogą zrozumieć, jak działa system AI. Przejrzystość algorytmów oznacza dostarczanie informacji na temat zasad działania modeli, np. mechanizmów podejmowania decyzji, źródeł danych i wnioskowania. Jest kilka sposobów aby to osiągnąć, jednym z nich może być program zaprojektowany stricte do wyjaśniania działań podjętych przez AI, taki programy nazywa się explainable AI:
- Explainable AI (XAI): Narzędzia i metody wyjaśniania działania modeli AI, takie jak SHAP (Shapley Additive Explanations) czy LIME (Local Interpretable Model-agnostic Explanations), umożliwiają użytkownikom wgląd w sposób podejmowania decyzji przez system.
Jak działa SHAP?
SHAP to metoda wyjaśniania, jak model uczenia maszynowego podejmuje decyzje. Działa w oparciu o teorię gier (dział matematyki zajmujący się badaniem optymalnego zachowania) i pozwala obliczyć, jak każda cecha (np. liczba pokoi w mieszkaniu) wpływa na wynik modelu (np. przewidywaną cenę mieszkania).
SHAP jest często używany do:
- Wyjaśniania wyników skomplikowanych modeli, takich jak sieci neuronowe.
- Zrozumienia wpływu poszczególnych cech na decyzje modelu.
- Budowy zaufania do modelu poprzez przejrzyste wyjaśnienia.
- Bezpieczeństwo i ochrona danych
Oprócz przejrzystości działania, ważna jest również wiedza, co się dzieje z danymi które AI pobiera i jak one są przechowywane i chronione. Nie tylko jest to ważne dla użytkowników którzy świadomie korzystają z AI, (których jest raczej mało) ale też np. dla firm które chcą wprowadzić rozwiązania bazujące na AI w celu optymalizacji pracy. Tutaj zarówno technologia oraz prawo muszą ze sobą współgrać, żeby zapewnić jak najszczelniejszą ochronę.
Systemy AI muszą gwarantować bezpieczeństwo i poufność danych. Implementacja technologii takich jak:
- Szyfrowanie danych: Chroni informacje przed nieuprawnionym dostępem.
- Federated Learning: Umożliwia trenowanie modeli na zdecentralizowanych danych, ograniczając ryzyko wycieku danych.
- Testowanie i audyt AI
Regularne testy i audyty systemów AI pozwalają identyfikować potencjalne problemy. Ważne narzędzia obejmują:
- Testy odporności na błędy.
- Audyty etyczne pod kątem uprzedzeń (bias) w danych i algorytmach.
Dlaczego to jest ważne?
AI jest używane w bardzo delikatnych oraz poważnych sprawach, np. rozpoznawaniu twarzy, Gdzie błąd może być kosztowny. Przykładem takiej sytuacji może być przypadek Porchy Woodruff w Ameryce, Detroit, która została aresztowana i oskarżona o kradzież samochodu. Okazało się, że jest niewinna, a do pomyłki doszło, ponieważ AI pomyliło ją z kimś innym. Do pomyłki doszło, ponieważ dla AI osoby czarnoskóre wyglądają podobnie. Wynika to z tego, że w większości naukowcy pracujący nad AI są w większości biali, i przez nieuwagę wytrenowali AI na zdjęciach białych ludzi, przez co AI miało niewystarczająco dużo danych by poprawnie identyfikować ludzi o innym kolorze skóry.
Jak wspomniano wyżej, oprócz technologicznych rozwiązań, warto aby prawo nadążało za dynamicznie rozwijającą się technologią i ustanawiało nowe standardy oraz rozporządzenia, np. AI act z rozporządzenie unijne w sprawie sztucznej inteligencji, które zostało przyjęte przez Parlament Europejski 13 marca 2024 roku
Co zmienia AI act? Definicja trustworthy AI
Nowe przepisy wprowadzają ograniczenia dotyczące sztucznej inteligencji. Zabronione będzie m.in. stosowanie technik podprogowych i rozwiązań dyskryminujących określone grupy ludzi, a także używanie AI do oceny obywateli (social scoring), czyli monitorowania ich stylu życia.
Rozporządzenie tworzy Europejską Radę ds. Sztucznej Inteligencji oraz krajowe organy, które będą odpowiedzialne za egzekwowanie przepisów. Eksperci przewidują, że AI Act będzie miał podobny wpływ jak przepisy o ochronie danych osobowych z 2018 roku.
Przepisy weszły w życie 1 sierpnia 2024 roku, ale będą wprowadzane stopniowo, a pełne stosowanie planowane jest na 2026 rok. Takie działanie daje ludziom poczucie bezpieczeństwa i wiary, że AI jest jakkolwiek regulowane i że ktoś trzyma rękę na pulsie. Tworzenie standardów i certyfikatów dla systemów AI (np. ISO/IEC 22989) pozwala użytkownikom ocenić zgodność systemu z normami branżowymi, co wzbudza zaufanie.
Jak rozumiane jest „trustworthy AI”? Ta koncepcja polega na trzech głównych elementach:
Etyka: Systemy AI powinny być projektowane i wykorzystywane w sposób odpowiedzialny i etyczny, z poszanowaniem wartości takich jak sprawiedliwość, uczciwość, prywatność i bezpieczeństwo. Etyka AI obejmuje kwestie takie jak unikanie uprzedzeń, ochrona danych osobowych i minimalizowanie ryzyka dla środowiska
Solidność techniczna: Systemy AI muszą być niezawodne, bezpieczne i odporne na ataki. Powinny działać zgodnie z założeniami i przewidywaniami, zapewniając stabilność i bezpieczeństwo użytkownikom
Prawo: Rozwój i użytkowanie AI muszą być zgodne z obowiązującymi przepisami prawa, w tym z regulacjami dotyczącymi ochrony danych, praw człowieka i bezpieczeństwa. Przykładem regulacji prawnych dotyczących AI jest unijny Akt o sztucznej inteligencji (AI Act)
Coś oprócz AI act?
Innym dokumentem wartym uwagi jest zatytułowany „Policy and investment recommendations for trustworthy AI”. Materiał ten, choć stanowi zasadnicze uzupełnienie AI act,, nie stał się jednak przedmiotem należytej uwagi w dyskusji wokół europejskiej wizji rozwoju AI (świadczy o tym chociażby fakt, że jest on dostępny wyłącznie w wersji anglojęzycznej, podczas gdy Wytyczne etyczne opublikowano we wszystkich językach urzędowych UE). Tymczasem jego znajomość jest niezbędna do właściwego zrozumienia warunków koniecznych do realizacji godnej zaufania sztucznej inteligencji.
Przedstawione w nim zalecenia opierają się na przekonaniu, że AI godna zaufania ma być nie tylko sposobem na przeciwdziałanie nadużyciom czy krzywdom wynikającym z niewłaściwego projektowania i stosowania AI, ale również siłą napędową rozwoju cyfrowej gospodarki w Europie. Dokument ten jest zbiorem 33 rekomendacji, dotyczą one np. ram prawnych, dobrostanu indywidualnego oraz społecznego, finansowania, itp. Dokument zwraca uwagę, że należy wziąć pod uwagę dynamiczny rozwój AI oraz jej potencjalnie chaotyczne wybory i zaleca, aby nie trzymać się sztywnych ram, tylko działać sprawnie i adekwatnie do sytuacji z w duchu etycznego postępowania
Socjotechniczne metody budowania zaufania
- Edukacja użytkowników
Jednym z najważniejszych i najbardziej podstawowych elementów budowania zaufania jest edukowanie użytkowników o możliwościach, ograniczeniach i działaniu AI. Proste i przystępne instrukcje, filmy edukacyjne i warsztaty pomagają zredukować obawy związane z nieznajomością technologii.
- Etyka w AI
Wdrażanie zasad etycznych, takich jak te zaproponowane przez Unię Europejską w „Wytycznych dotyczących etycznej AI”, wzmacnia poczucie odpowiedzialności w projektowaniu systemów AI. Kluczowe zasady to:
- Sprawiedliwość.
- Niezawodność.
- Prawa człowieka.
W Polsce instytucją zajmującą się tym zagadnieniem jest np. Centrum Etyki Technologii. Jest to ośrodek promujący odpowiedzialny rozwój innowacji. CET tworzy przestrzeń dla debaty międzysektorowej i promuje międzynarodowe rekomendacje dotyczące etyki technologii. Oprócz tego bierze udział w pracach gremiów doradczych rozwijających politykę rozwoju technologii (Grupa Robocza ds. Sztucznej Inteligencji przy KPRM), popularyzuje metodyki pozwalające na projektowanie technologii zgodnie z wartościami, uczestniczy w rozwoju współczesnej refleksji na temat etyki technologii oraz współpracuje z Instytutem Humanites w zakresie rozwoju spójnego przywództwa.
Wdrażanie nowych technologii AI:
Przed wdrożeniem nowej technologii AI, organizacja powinna zadać sobie pytania dotyczące przeznaczenia produktu, reprezentatywności danych treningowych, procesu szkolenia modelu, zgodności z zasadami odpowiedzialnej AI, ograniczeń funkcjonalności, możliwości audytu i weryfikacji działania systemu, wskaźników wydajności, interpretowania wyników, monitorowania awarii, identyfikowania uprzedzeń, oceny wiarygodności i kontroli bezpieczeństwa. Organizacje powinny zapewnić użytkownikom wsparcie w identyfikowaniu problemów z działaniem systemu AI i raportowania o nich. Pomóc mogą w tym takie dokumenty jak np. AI Act czy takie programy jak SHAP czy inne xAI.
Przykłady zagrożeń spowodowanych przez AI
w Libii w 2020 roku pojawił się przypadek autonomicznych dronów bojowych STM Kargu-2, które, według raportu ONZ, są pierwszym udokumentowanym przykładem wykorzystania maszyn tego typu do walki z ludźmi. Drony te zostały dostarczone przez Turcję i użyte przez armię libijską w walkach z Libijską Armią Narodową dowodzoną przez Khalifa Haftara.
Główną cechą wyróżniającą STM Kargu-2 jest ich autonomiczność. Drony te zostały zaprogramowane do atakowania celów bez konieczności udziału operatora. Wyposażone w ładunek wybuchowy, mogły samodzielnie podjąć decyzję o jego detonacji. Raport ONZ opisuje ataki tych dronów na konwoje i wycofujących się żołnierzy.
Użycie autonomicznych dronów bojowych w Libii wywołało wiele kontrowersji i obaw. Organizacje pozarządowe, takie jak Human Right Watch, już wcześniej apelowały o wprowadzenie prawa zakazującego stosowania tego typu broni.
Eksperci wskazują na potencjalne zalety autonomicznych dronów, argumentując, że maszyny są mniej podatne na błędy niż ludzie i mogą ograniczyć liczbę ofiar wśród cywilów. Jednakże, pojawiają się również obawy dotyczące możliwości błędnego zaprogramowania dronów lub dostarczenia im fałszywych danych, co mogłoby prowadzić do nieprzewidzianych i tragicznych konsekwencji.
Przypadek z Libii stawia ważne pytania o etyczne i prawne aspekty użycia autonomicznych dronów. Kwestia odpowiedzialności za decyzje podejmowane przez maszyny oraz ryzyko utraty kontroli nad nimi budzą poważne wątpliwości.
- Pierwsze udokumentowane użycie autonomicznych dronów bojowych przeciwko ludziom.
- Drony STM Kargu-2 są zdolne do samodzielnego atakowania celów bez udziału operatora.
- Kontrowersje i obawy związane z etycznymi i prawnymi aspektami użycia autonomicznych dronów.
- Potencjalne korzyści i zagrożenia wynikające z zastosowania tej technologii.
- Potrzeba szerokiej debaty na temat przyszłości autonomicznych systemów uzbrojenia.
W 2018 roku wybuchł skandal z Cambridge Analytica, który dotyczył nieuprawnionego wykorzystania informacji użytkowników mediów społecznościowych. Informacje te wykorzystano do stworzenia profili wyborców i dostarczenia treści ściśle powiązanych ze światopoglądem docelowych osób, dzięki czemu stały się one skuteczniejszymi narzędziami perswazji. Wąskim gardłem w tych operacjach wywierania wpływu był koszt opracowania treści, który wymagał od twórców treści wykorzystania wiedzy osób biegłych w języku, kulturze, polityce i psychologii kraju docelowego. Jednak nowa technologia sztucznej inteligencji omija to wąskie gardło, oferując opłacalne spersonalizowane treści.
Wybory prezydenckie w Indonezji w 2024 roku są pierwszymi, w których obserwujemy tak szerokie wykorzystanie sztucznej inteligencji (AI). Technologia ta staje się narzędziem do kreowania wizerunku kandydatów, analizy nastrojów społecznych i tworzenia spersonalizowanych treści. Przyjrzyjmy się bliżej przykładom zastosowań AI w kampanii i zastanówmy się nad szansami i zagrożeniami, jakie ze sobą niesie.
Zmiana wizerunku kandydata:
Prabowo Subianto, jeden z kandydatów na prezydenta, wykorzystuje AI do zmiany swojego wizerunku z nacjonalisty na “gemoya”
Grafiki stworzone za pomocą AI, np. kreskówkowa wersja Prabowo, zdobią bilbordy w całym kraju.
Narzędzia AI dla kandydatów:
Wiele narzędzi AI używanych w wyborach w Indonezji, w tym platforma Prabowo, działa na platformie OpenAI, właściciela ChatGPT2.
OpenAI wprowadził jednak zakaz wykorzystywania swojej technologii do celów politycznych, w tym tworzenia wizerunków prawdziwych osób, w obawie przed ingerencją AI w wybory
Mimo to, indonezyjski konsultant polityczny Yose Rizal twierdzi, że jego aplikacja Pemilu.AI wykorzystuje oprogramowanie GPT-4 i 3.5 do tworzenia strategii kampanii i przemówień dostosowanych do konkretnych okręgów wyborczych Aplikacja analizuje dane demograficzne, media społecznościowe i strony informacyjne
Szeroki wachlarz zastosowań AI:
AI umożliwia tworzenie spersonalizowanych materiałów, takich jak obrazy, filmy i memy dopasowane do profilu wyborców AI monitoruje nastroje w mediach społecznościowych i identyfikuje trendy i opinie na temat kandydatów
AI analizuje dane sondażowe i przewiduje wyniki wyborów.
AI może zachęcić do głosowania, szczególnie osoby, które wcześniej nie były zaangażowane w proces wyborczy
AI ułatwia dostęp do informacji o kandydatach
AI może pomóc w dotarciu do młodszych wyborców, którzy są bardziej aktywni w mediach społecznościowych
Zagrożenia:
Dezinformacja i manipulacje z wykorzystaniem AI mogą podważyć zaufanie do wyborów i osłabić demokrację
Wykorzystanie AI do tworzenia fałszywych treści, np. deepfake’ów, może wprowadzić wyborców w błąd i wpłynąć na ich decyzje.
Nadmierne poleganie na AI może prowadzić do zaniedbania tradycyjnych form kampanii i kontaktu z wyborcami.
Wnioski:
Wybory w Indonezji są poligonem doświadczalnym dla przyszłości AI w polityce. Ich wynik pokaże, jak technologia ta może wpłynąć na kampanie wyborcze i demokrację w skali globalnej. Ważne jest, aby korzystać z AI w sposób odpowiedzialny, etyczny i transparentny, aby zminimalizować ryzyko manipulacji i dezinformacji.
Podsumowanie
Zaufanie wobec AI jest fundamentem skutecznego wdrażania tej technologii w różnych dziedzinach życia. Połączenie technologicznych i socjotechnicznych metod budowania zaufania pozwala na stworzenie systemów, które są zarówno efektywne, jak i akceptowane przez użytkowników. Ostatecznym celem jest osiągnięcie optymalnego poziomu zaufania, w którym ludzie będą korzystać z AI z poczuciem bezpieczeństwa i pewności co do jej działania.
Wyzwania i przyszłość
Budowanie zaufania wobec AI jest procesem długotrwałym i wieloaspektowym. Wymaga integracji zaawansowanych rozwiązań technologicznych z podejściem socjotechnicznym, uwzględniającym ludzkie emocje i potrzeby. Kluczowe wyzwania obejmują:
- Rozwiązywanie problemu uprzedzeń algorytmicznych.
- Transparentne zarządzanie danymi.
- Stworzenie globalnych standardów dla etycznej AI.
W przyszłości, dalsze badania nad XAI, wdrażanie regulacji prawnych i inwestycje w edukację społeczeństwa odegrają kluczową rolę w kształtowaniu poziomów zaufania wobec systemów sztucznej inteligencji.
Bibliografia
https://robotyka.pl/autonomiczne-drony-w-libii-atakowaly-ludzi/
https://spidersweb.pl/2024/03/tracimy-zaufanie-do-ai.html
https://doi.org/10.1155/2023/4637678
https://www.axios.com/2024/03/05/ai-trust-problem-edelman
https://detroitjustice.org/statement-on-porcha-woodruff/
https://kursy.lazarski.pl/etyka-ai-czym-jest-i-dlaczego-ma-znaczenie-lut/
https://artificialintelligenceact.eu/
https://artificialintelligenceact.eu/ai-act-explorer/
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…