Sztuczna Inteligencja (ang. Artificial Intelligence – AI) to nie magia. Potrzebna jest duża ilość danych aby móc stworzyć dobry produkt sztucznej inteligencji (szczególnie jeśli chodzi o uczenie maszynowe). Jeśli z pomocą sztucznej inteligencji mają być podejmowane istotne decyzje, ważnym jest aby nauczona była na przyzwoitej ilości dobrze wyselekcjonowanych danych treningowych. Wyjątek to np. uczenie ze wzmocnieniem lub algorytmy genetyczne. Główna różnica pomiędzy programowaniem a sztuczną inteligencją, w szczególności uczeniem maszynowym jest taka, że zamiast definiować konkretne zasady, modele nauczane są bazując na danych. Warto pamiętać, że AI nie jest bezbłędna, oraz nie rozwiąże każdego problemu. Są obszary, w których użycie jej byłoby niebezpieczne i niewskazane.
“AI is far more dangerous than nukes.”
Elon Musk, marzec 2018, konferencja technologiczna South by Southwest, Teksas.
Założyciel Tesli i SpaceX, Elon Musk w marcu 2018 roku powiedział, że AI jest o wiele bardziej niebezpieczna niż bomby nuklearne. Zaznaczył on, że jest bardzo blisko przełomowej sztucznej inteligencji, a to strasznie go przeraża. Dodał również, że jest ona zdolna do znacznie większej ilości rzeczy, niż prawie każdy wie, a tempo jej wzrostu jest wykładnicze. Biorąc pod uwagę to, czym Elon Musk się zajmuje oraz jego doświadczenia, zainteresowania oraz ludzi, którymi się otacza, jest to bardzo istotna wypowiedź.
https://www.youtube.com/watch?time_continue=55&v=B-Osn1gMNtw&feature=emb_logo
https://www.youtube.com/watch?v=B-Osn1gMNtw&t=55s
Elon nie jest jedyną osobą o takich poglądach. Jedynie rok temu, nieżyjący już fizyk Stephen Hawking również powiedział, że sztuczna inteligencja oraz jej wpływ na rzeczywistość może być destrukcyjna, jeśli nie będziemy ściśle oraz etnicznie kontrolować jej rozwoju.
“Unless we learn how to prepare for, and avoid, the potential risks,”
“AI could be the worst event in the history of our civilization.”
Stephen Hawking, 2017
Dodatkowo, pracownik naukowy Stuart Armstrong pracujący w Instytucie Przyszłości Życia rzekł, że gdyby coś poszło nie tak, mniej zniszczeń spowodowałaby nawet wojna nuklearna, ponieważ zabiłaby stosunkowo niewielką część planety, podczas gdy sztuczna inteligencja niosłaby ze sobą ryzyko wyginięcia.
Pytaniem jest więc, w jaki sposób miałoby się to stać? Jak sztuczna inteligencja mogłaby dojść do takiego punktu, aby była realnym zagrożeniem?
Według kognitywisty Gary’ego Marcus’a, im inteligentniejsze stają się maszyny, tym bardziej mogą zmienić się ich cele. Podczas gdy rozmaite produkty AI będą mogły same się ulepszać, nie możemy odrzucić tego ryzyka, że przechytrzą nas one w pojedynku o zasoby, oraz finalnie o przetrwanie.
Istnieją dwie teorie według których uważa się, że Sztuczna Inteligencja może być niebezpieczna:
- Sztuczna inteligencja jest zaprogramowana tak, aby zrobić coś złośliwego
- Sztuczna inteligencja jest zaprogramowana tak, aby przynosić korzyści, ale osiąga swój cel, robiąc coś destrukcyjnego
- Automatyzacja i zakłócanie pracy
Automatyzacja jest zagrożeniem, które już teraz ma wpływ na społeczeństwo.
Ciągle rozwijająca się dziedzina, która przejawia się poprzez fabryki produkujące na masową skalę, kasy samoobsługowe, samojeżdżące samochody. Badanie Brookings Institution z 2019 r. wykazało, że w najbliższych latach 36 milionów miejsc pracy może być w wysokim stopniu zagrożonych automatyzacją. Zaobserwowano, iż w przypadku wielu zadań systemy sztucznej inteligencji przewyższają ludzi. Są one nie tylko tańsze, ale i wydajniejsze oraz dokładniejsze niż ludzie. Na przykład sztuczna inteligencja lepiej niż ludzie rozpoznaje fałszerstwa artystyczne, a obecnie jest coraz dokładniejsza w diagnozowaniu nowotworów na podstawie zdjęć radiograficznych.
Kolejnym problemem jest fakt, iż w związku z przesunięciami miejsc pracy w wyniku automatyzacji, wielu pracowników, którzy stracili pracę, nie kwalifikuje się na nowo tworzone miejsca pracy w sektorze sztucznej inteligencji ze względu na brak wymaganych uprawnień lub wiedzy specjalistycznej. Wynikające z tego zakłócenia w pracy mogą doprowadzić do zwiększenia nierówności społecznych, a nawet do katastrofy gospodarczej.
- Bezpieczeństwo i prywatność
W 2020 r. rząd Wielkiej Brytanii zlecił przygotowanie raportu pt. “Sztuczna inteligencja a bezpieczeństwo narodowe Wielkiej Brytanii”, w którym podkreślono, że sztuczna inteligencja jest niezbędna do zapewnienia bezpieczeństwa cybernetycznego Wielkiej Brytanii w celu wykrywania i łagodzenia zagrożeń, które wymagają szybszej reakcji niż ludzki proces decyzyjny.
Problemem jest nadzieja, iż wraz ze wzrostem obaw związanych z bezpieczeństwem opartym na sztucznej inteligencji wzrosną również środki zapobiegawcze oparte na sztucznej inteligencji.
Nasuwa się również pytanie, jak zapewnić bezpieczeństwo systemów sztucznej inteligencji. Jeśli wykorzystujemy algorytmy sztucznej inteligencji do obrony przed różnymi problemami związanymi z bezpieczeństwem, musimy zadbać o to, aby sama sztuczna inteligencja była bezpieczna przed złymi aktorami.
Jeśli chodzi o prywatność, duże firmy i rządy są już krytykowane za jej naruszanie. Przy tak dużej ilości danych osobowych dostępnych obecnie w Internecie algorytmy sztucznej inteligencji są już w stanie z łatwością tworzyć profile użytkowników, które umożliwiają niezwykle precyzyjne kierowanie reklam.
- Złośliwe oprogramowanie AI
Sztuczna inteligencja coraz lepiej radzi sobie z włamywaniem się do systemów bezpieczeństwa i łamaniem ich szyfrowania. Jednym ze sposobów jest “ewoluowanie” złośliwego oprogramowania za pomocą algorytmów uczenia maszynowego. Złośliwe oprogramowanie może uczyć się, co działa metodą prób i błędów, stając się z czasem coraz bardziej niebezpieczne.
Nowsze inteligentne technologie (takie jak autonomiczne samochody) zostały uznane za cel tego rodzaju ataków o wysokim stopniu ryzyka, ponieważ mogą powodować wypadki samochodowe lub blokady sieci. W coraz większym stopniu polegamy na inteligentnych technologiach podłączonych do Internetu, ryzyko zakłóceń będzie miało wpływ na coraz większą część naszego codziennego życia.
Również w tym przypadku jedynym realnym rozwiązaniem tego zagrożenia jest przewaga sztucznej inteligencji zapobiegającej złośliwemu oprogramowaniu nad sztuczną inteligencją chroniącą użytkowników indywidualnych i przedsiębiorstwa.
- Broń autonomiczna
Broń autonomiczna, czyli broń sterowana przez systemy sztucznej inteligencji, a nie przez człowieka. Setki ekspertów z dziedziny technologii wezwały ONZ do opracowania sposobu ochrony ludzkości przed zagrożeniami związanymi z bronią autonomiczną.
Militaria rządowe na całym świecie mają już dostęp do różnych systemów broni sterowanych przez SI lub częściowo sterowanych przez SI, takich jak drony wojskowe. Dzięki oprogramowaniu do rozpoznawania twarzy dron może śledzić daną osobę.
Co się stanie, gdy zaczniemy pozwalać algorytmom sztucznej inteligencji na podejmowanie decyzji dotyczących życia i śmierci bez udziału człowieka?
Możliwe jest także dostosowanie technologii konsumenckiej (np. dronów) do autonomicznego lotu i wykonywania różnych zadań. Tego typu możliwości w nieodpowiednich rękach mogą wpłynąć na codzienne bezpieczeństwo jednostki.
- Deepfakes, Fake News i bezpieczeństwo polityczne
Oprogramowanie do rekonstrukcji twarzy (bardziej znane jako technologia deepfake) staje się coraz bardziej nieodróżnialne od rzeczywistości.
Niebezpieczeństwo związane z deepfake’ami już teraz dotyka celebrytów i światowych przywódców, a niewiele czasu musi upłynąć, zanim dotrze do zwykłych ludzi. Na przykład oszuści już teraz szantażują ludzi fałszywymi filmami wideo stworzonymi na podstawie czegoś tak prostego i dostępnego, jak zdjęcie profilowe z Facebooka.
I nie jest to jedyne zagrożenie. Sztuczna inteligencja potrafi odtwarzać i edytować zdjęcia, komponować tekst, klonować głosy i automatycznie tworzyć wysoce ukierunkowane reklamy. Widzieliśmy już, jak niektóre z tych zagrożeń wpływają na społeczeństwo.
6. Stronniczość sztucznej inteligencji
Z przemówienia pani profesor informatyki Olgi Russakovsky dla New York Times wynika, że AI jest stronnicza. Oprócz stronniczości wynikającej z danych oraz stronniczości algorytmicznej, sztuczna inteligencja jest w końcu tworzona przez człowieka. Człowiek natomiast, z natury jest stronniczy. Profesor Russakovsky mówi, że badacze AI są głównie płci męskiej. Dorastali oni w obszarach o wysokim statusie społeczno-ekonomicznym, oraz są pełnosprawni, wywodzący się z danej demografii rasowej. Natomiast jeszcze w tym samym artykule, Timnit Gebru – badacz z Google powiedział, iż źródło tych uprzedzeń jest bardziej społeczne niż technologiczne a badaczy takich jak Olga Russakovsky nazwał “jednymi z najniebezpieczniejszych ludzi na świecie, ponieważ mamy tę iluzję obiektywizmu”.
Jeśli mowa o stronniczości, w dużej mierze problemem jest fakt, że sektor prywatny dąży przede wszystkim do zysku. Zatem sektor ten, przy rozwijaniu AI niekoniecznie myśli co będzie najlepsze w danej sytuacji, a więc niekoniecznie kieruje się dobrem wspólnym.
Łagodzenie zagrożeń związanych ze sztuczną inteligencją
W miarę jak sztuczna inteligencja staje się coraz bardziej zaawansowana i zwiększa swoje możliwości, dokonuje się wiele pozytywnych postępów. Niestety, potężna nowa technologia jest zawsze narażona na ryzyko niewłaściwego użycia. Ryzyko to dotyczy niemal każdego aspektu naszego codziennego życia – od prywatności, przez bezpieczeństwo polityczne, po automatyzację pracy.
Pierwszym krokiem do ograniczenia zagrożeń związanych ze sztuczną inteligencją będzie podjęcie decyzji, gdzie chcemy, aby była ona wykorzystywana, a gdzie należy ją odradzać. Intensyfikacja badań i debat nad systemami sztucznej inteligencji i ich zastosowaniami jest pierwszym krokiem do zapobiegania ich niewłaściwemu wykorzystaniu.
Technologia rozpoznawania twarzy również jest już niezwykle zaawansowana. Kamery mogą w czasie rzeczywistym tworzyć profile osób. Niektóre służby policyjne na świecie używają podobno inteligentnych okularów z oprogramowaniem do rozpoznawania twarzy, które z łatwością rozpoznają poszukiwanych lub podejrzanych przestępców.
Istnieje ryzyko, że technologia ta może zostać rozszerzona na autorytarne reżimy lub po prostu osoby czy grupy o złych zamiarach.
https://www.youtube.com/watch?v=DgVtC9VLXag&t=2s
Sztuczna inteligencja (AI) ze względu na swój charakter może na różne sposoby zwiększać dystans między ludźmi, np. promując anonimowość. Często nie wiemy, jakie dane analityczne Google i Facebook uzyskują z naszych zdjęć dzięki oprogramowaniu do rozpoznawania obrazu.
Sztuczna inteligencja jest wciąż dziedziną, nad którą trwają intensywne badania i prace rozwojowe. W związku z tym posiada luki, które mogą zostać wykorzystane przez podmioty o wątpliwych intencjach.
Nowoczesne oprogramowanie zawdzięcza wiele otwartemu oprogramowaniu, dotyczy to również sztucznej inteligencji. Wadą tego rozwiązania jest fakt, iż pozbawione skrupułów podmioty mogą łatwo wejść w posiadanie algorytmów AI z otwartym kodem źródłowym i stworzyć potężne zagrożenia.
Warto również pamiętać słowa kognitywisty Gary’ego Marcus’a: Im inteligentniejsze stają się maszyny, tym bardziej mogą zmienić się ich cele. Nie można zaprzeczyć, że AI ma swoje plusy, usprawnia sporo działań oraz w wielu dziedzinach jest naprawdę przydatna. Jednak do tego dochodzi również fakt, że w wielu przypadkach rozwijana jest ona poprzez sektor prywantny, któremu bardzo często zależy na zysku, a nie na dobru wspólnym.
Bibliografia:
- https://www.beapplied.com/post/why-we-dont-use-ai-for-hiring-decisions#:~:text=Why%20not%20using%20AI%20is%20also%20better%20for,mission%20is%20to%20help%20people%20see%20talent%20differently.
- https://devathon.com/blog/dangers-of-ai-artificial-intelligence/
- https://towardsdatascience.com/when-to-not-use-ai-or-use-it-based-on-my-experience-abb58c063aba
- https://www.makeuseof.com/is-ai-dangerous-5-immediate-risks-of-artificial-intelligence/#:~:text=%20Is%20AI%20Dangerous%3F%205%20Immediate%20Risks%20Of,becoming%20increasingly%20good%20at%20hacking%20security…%20More%20
Świetny artykuł! Bardzo dokładnie opisuje zarówno szanse, jak i wyzwania związane z wprowadzeniem kryptowalut, NFT i technologii blockchain do współczesnej…