Home » 2022 » CSI & AI – kryminologia, kryminalistyka, wymiar sprawiedliwości oczami sztucznej inteligencji

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 50

CSI & AI – kryminologia, kryminalistyka, wymiar sprawiedliwości oczami sztucznej inteligencji

Spread the love

Wraz z rozwojem technologii zwiększa się wachlarz dostępnych technik popełniania przestępstw. Czy wymiar sprawiedliwości jest przygotowany do walki z zupełnie nową falą zagrożeń określaną mianem cyberprzestępczości? Jak wykorzystywanie AI może ułatwić pracę przestępcom, kryminologom, policji czy organom ścigania i jakie problemy wciąż stoją na drodze do powszechnej adaptacji technik AI w rozwiązywaniu spraw kryminalnych? W tym artykule postaramy się odpowiedzieć na te i inne pytania, a także przedyskutujemy na ile prawdopodobne jest zastąpienie sędziów algorytmami AI w najbliższej przyszłości.

Co to jest kryminologia?

Kryminologia jest nauką związaną bezpośrednio z prawem karnym [1]. Nie skupia się ona jednak bezpośrednio na nauce o przepisach karnych, co sugeruje etymologia tego pojęcia (crimen – przestępstwo, logos – nauka). Głównym przedmiotem badań z zakresu kryminologii jest natomiast sam czyn popełnienia przestępstwa. Kryminolodzy badają zarówno samych sprawców przestępstwa – między innymi ich motywy i przyczyny popełnienia przestępstwa – jak i okoliczności dokonania przestępstwa. Celem prowadzenia badań i analiz z tego zakresu jest zrozumienie ogólnych przyczyn popełniania przestępstw, po to, by identyfikować skuteczne sposoby zwalczania przestępczości. Nauki ściśle związane z kryminologią to m.in. psychologia, psychiatria i socjologia. Wykorzystując wiedzę i różne techniki badań wywodzące się z tych dziedzin, kryminolodzy analizują podstawy ludzkich zachowań, które przyczyniły się do popełnienia czynu sprzecznego z prawem karnym [2].

Oprócz samego sprawcy przestępstwa, kryminologia bada również sposoby reagowania na przestępstwo i funkcjonowania instytucji wymiaru sprawiedliwości [3]. Kryminolodzy analizują jak sankcje karne wpływają na sprawców przestępstw i jak skuteczne są skutki nakładania polityki karnej. Przykładowo, czy dla danego przestępstwa kara 15 lat pozbawienia wolności będzie wystarczająco odstraszać potencjalnych sprawców przed jego popełnieniem, czy też nie?

Co istotne, kryminologia jest dziedziną stosunkowo mało popularną, o czym świadczy niewielka ilość ośrodków badawczych prowadzących badania z tego zakresu. W rezultacie, nie istnieją teorie ani techniki pozwalające w jednakowy sposób analizować dowolne wykroczenie, bez względu na jego okoliczności. Doprowadza to do częstych sytuacji, w których pojawiają się sprzeczne ze sobą analizy kryminologiczne. Stale opracowywane są nowe techniki badań z zakresu kryminologii, również takie wykorzystujące nowoczesne techniki informatyczne, oparte o metody statystyczne lub sztuczną inteligencję (AI).

Do czego wykorzystuje się AI w kryminologii?

Źródło: https://mindy-support.com/news-post/using-ai-to-fight-crime-how-police-use-ai/

W kryminologi AI można wykorzystać na wiele sposób, można dokonywać przestępstw przy jej pomocy, chronić się przed przestępstwami,  wykrywać potencjalnych terrorystów i można też próbować dokonać przestępstw na samej sztucznej inteligencji. W tym rozdziale przedstawimy różne perspektywy wykorzystania AI i opiszemy jakie techiniki są stosowane.

Przestępstwa przy użyciu AI

AI może służyć jako potężne narzędzie do złośliwego wykorzystania przez przestępców [4] poprzez rozszerzanie  stniejących zagrożeń lub wprowadzanie nowych zagrożeń. Przykładowo przemytnicy narkotyków mogą sięgnąć po pojazdy bezzałogowe takie jak łodzie podwodne, w celu zwiększenia skuteczności przemytu i unikanie odporności karnej.

Innym wykorzystaniem AI może być połączenie tanich dronów z systemami do detekcji twarzy oraz materiałami wybuchowymi, co mogłoby przyczynić się do masowych i groźnych ataków terrorystycznych.

Kolejnym narzędziem używanym przez przestępców jest DeepFake, generatywne sieci neuronowo (GAN) pozwalające na tworzenie syntetycznych filmów z udziałem prawdziwych osoby.

DeepFake’y nie są jedynymi przykładami generatywnych sieci, które mogą służyć jako narzędzia dla przestępców. W 2017 roku badacze z NYU (New York University) użyli GANów do stworzenia “DeepMasterPrints”, syntetycznych odcisków palca mogących służyć jako klucz do systemów z identyfikacją biometryczną. W tym samym roku powstał również PassGAN, generatywna sieć trenowana na hasłach, które wyciekły z baz danych i potrafiąca generować potencjalne hasła wysokiej jakości, taka sieć osiągała lepsze wyniki o ponad 50% względem najlepszych tego typu narzędzi dostępnych na rynku w tym czasie.

Szacuje się, że 91% cyberataków rozpoczyna się od maili phishingowych, w 2018 roku powstał DeepPhish [5], system AI uczący się na podstawie innych ataków phishingowych i pozwalający znacznie skuteczniej obchodzić filtry spamu.

Przestępstwa na AI

Nikogo nie powinien dziwić fakt, że szereg przestępstw które możemy popełnić staje się łatwiejsze i groźniejsze, jeżeli użyjemy do tego sztucznej inteligencji. Nie wszyscy zdają sobie jednak sprawę z tego, że systemy AI też mogą paść celem ataku. Takie ataki opierają się zazwyczaj na inżynierii wstecznej i próbach “ogłupienia” sieci.

Znanym tego typu przykładem [6] jest chatbot “Tay” stworzony przez Microsoft i działający na twitterze. Bot stał się sławny po tym jak w niecałe 24 godziny, po tym jak ludzie zaczęli go uczyć frazesów, bot stał się rasistą i zaczął powielać stereotypy o osobach czarnoskórych, kobietach, meksykanach czy też żydach.

 

Źródło: https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

Ten problem to tylko czubek góry lodowej, systemy AI są podatne nie tylko na niewłaściwe dane treningowe, ale również na tak zwane “adversarial” ataki, to znaczy celowe dobieranie próbki testowe, które sprawiają, że sieć nie jest w stanie działać w sposób do którego została zaprojektowana. Przykładowo [7] autopilot tesli został oszukany przez drona z reflektorem rzucający fikcyjny znak na jezdnię, sprawiając, że przekroczył on dopuszczalną prędkość. Testującym udało się nawet sprawić, że samochód zjechał ze swojego pasa jezdni poprzez rzucanie fałszywych linii drogowych.

Kolejną dziedziną w której istnieje możliwość wykorzystania podatności AI są systemy do rozpoznawania głosu typu Siri, Alexa itp, naukowcy byli w stanie oszukać takie systemy przy pomocy replikowania fal głosowych i wysyłać ukryte głosy, przez co system był w stanie wykonywać podsyłane komendy.

Przestępstwo przez AI

Wiemy już, że AI może służyć jako narzędzie do wykonywania przestęp, jednakże co w przypadku gdy AI popełni przestępstwo samodzielnie? W 2015 w darkwebie pewna grupa osób wypuściła bota, który miał dokonywać zakupowów na stronie. Jak się okazało, ostatecznie bot kupił narkotyki i został aresztowany przez Szwajcarską policję. Co w przypadku, gdy robot popełni przestępstwo, albo autopilot samochodowy przejedzie kogoś na ulicy? Z rozwojem sztucznej inteligencji, rośnie ryzyko, że takie sytuacje będą się zdarzać. Jak powinno się zachować w takim przypadku to na pewno ciężki, ale zarazem ciekawy temat do dyskusji.

AI jako środek prewencji

Źródło: https://www.information-age.com/10-cyber-security-trends-look-2020-123463680/

Wiemy już, że przy pomocy AI można skuteczniej tworzyć maile phishingowe, sztuczna inteligencja może też służyć jako środek ochronny, w 2020 roku powstał system Panacea, używający metody przetwarzania języka naturalnego aby skutecznie wykrywać próby oszustw mailowych. Dodatkowo w dziedzinie cyberprzestępstw mamy dostępnych wiele narzędzi bazujących na sztucznej inteligencji, takich jak antywirusy czy firewalle, poniżej znajduję się kilka bardziej szczegółowych zastosowań.

  • Wykrywanie złośliwego oprogramowania
    • Złośliwe oprogramowanie stało się coraz bardziej rozwinięte, ostatnimi laty rozwinęło się wiele zaawansowanych programów, takich jak Stuxnet, WannaCry, Industroyer, czy DeepLocker [8]. Rozwój takich oprogramowań wymaga stworzenia równie zaawansowanych programów ochronnych, które będą potrafiły odeprzeć takie ataki, a to zazwyczaj wiąże się z koniecznością użycia AI i analizy dużych zbiorów danych o potencjalnych zagrożeniach.
  • Bezpieczeństwo biometryczne
    • Bezpieczeństwo biometryczne odnosi się do
      wykorzystanie danych biometrycznych osoby fizycznej w celu określenia jej uprawnień dostępu do zabezpieczonego systemu
      lub miejsca [8]. Istnieją dwa podstawowe rodzaje identyfikatorów biometrycznych:
      fizyczne i behawioralne. Pierwszy z nich, to znaczy biometria fizyczna odnosi się do
      zadań, takich jak skanowanie tęczówki oka, rozpoznawanie odcisków palców czy też rozpoznawanie głosu. Drugi z nich, biometria behawioralna odnosi się do czynności takich jak dynamika uderzeń klawiszy i analiza chodu. We wszystkich wymienionych dziedzinach istnieją modele opierające się o szutczną inteligencje potrafiące w znaczny sposób usprawnić dane zadanie.
  • Wykrywanie podatności systemów
    • Szukanie luk w zabezpieczeniach staje się coraz popularniejszym zastosowaniem defensywnej sztucznej inteligencji. Wykrywanie podatności jest bardziej proaktywnym środkiem obronnym, polega na skanowaniu komputera, bądź też kodu pod kątem
      wykrywania podatności.

AI w wymiarze sprawiedliwości

Źródło: https://www.kavlawyers.com/practices/tech/

Sztuczna inteligencja (AI) często jest utożsamiana z ideą tworzenia inteligentnych maszyn, zdolnych do wykonywania ludzkich zadań poprzez naśladowanie ludzkich zachowań, a także naszej inteligencji i zdolności do rozumowania. Kryminologia, kryminalistyka czy wymiar sprawiedliwości ogółem są jedną z dziedzin gdzie obserwujemy coraz to częstsze wykorzystywanie AI w systemach przetwarzania informacji [9]. Jest to dziedzina o tyle ważna, że wraz z rozwojem AI pojawiają się zarówno nowe możliwości popełniania przestępstw jak i sposoby by im zapobiegać. Cyberprzestępcy to szczególna grupa ludzi ‘ponad prawem’, która dysponuje zaawansowaną wiedzą z zakresu informatyki a niekiedy również AI. Z drugiej strony, opracowywane są nowoczesne techniki wykorzystujące AI mające służyć instytucjom wymiaru sprawiedliwości do analizy materiałów dowodowych w sprawach kryminalnych, celem zredukowania wpływu ‘błędu ludzkiego’ na ocenę materiałów i możliwą niesprawiedliwość w wyrokach sądów.

 

Zastosowania AI w wymiarze sprawiedliwości

W sądach AI znajduje zastosowanie w obszarach takich jak:

  • Wspomaganie analiz prowadzonych przez techników (tzw. forensic scientists) – AI umożliwia lepszą analizę próbek DNA (w tym niekompletnych) zabezpieczonych na miejscu zdarzenia.
  • Wspomaganie decyzji sędziów – AI pozwala na przeanalizowanie dużych zbiorów danych historycznych z zakończonych już procesów sądowych. Poprzez identyfikację podobnych stoczonych spraw i orzeczeń sądu, algorytmy AI są w stanie przewidzieć prawdopodobny wynik końcowy rozprawy i typ wyroku. Dzięki temu, AI może pomagać sędziom w sprawiedliwym sądzeniu przestępców, ujednolicając skalę wyroków w podobnych sprawach.
  • Analiza profilu psychologicznego przestępców i identyfikacja potencjalnych recydywistów – Modele AI pozwalają na analizę kartotek kryminalnych przestępców i przewidywanie prawdopodobieństwa, że dana osoba popełni określone przestępstwo ponownie w ustalonym czasie. Umożliwia to organom ścigania lepszą prewencję i alokowanie zasobów ludzkich w obszarach w których jest największe prawdopodobieństwo popełnienia przestępstwa.

AI jest wciąż stosunkowo niedojrzałą nauką, w związku z czym ryzyko błędu modeli AI w kryminologii i w wymiarze sprawiedliwości jest dość istotne i należy o nim pamiętać. Jest to szczególnie ważne, ponieważ jednym z głównych założeń wymiaru sprawiedliwości jest ochrona fundamentalnych ludzkich praw i wartości takich jak, prywatność czy brak dyskryminacji.

 

Dyskryminacja i stronniczość AI

Większość modeli AI, celem ich wytrenowania, potrzebuje zbioru danych treningowych. Zazwyczaj, takie zbiory są przygotowane przez osoby tworzące model AI, w związku z czym rozkład cech w takich zbiorach nie zawsze jest rozkładem odpowiadających stanowi rzeczywistemu. Przykładowo, AI które ma identyfikować koty i psy na wideo, jeżeli będzie trenowane na zbiorze zawierającym 99% psów i 1% kotów nie będzie potrafiło rozpoznawać kotów tak dobrze jak psów. Podobnie będzie w przypadku modeli AI dotyczących rozpoznawania twarzy, można łatwo doprowadzić do sytuacji w której model najlepiej rozpoznaje np. mężczyzn o jasnym kolorze skóry a znacznie gorzej np. kobiety o ciemnej karnacji. Tego typu ‘stronniczość’ AI może powodować przypadki dyskryminacji m.in. na tle rasowym. Jest to szczególnie niebezpieczne i ważne, jeżeli taki model AI miałby wspomagać decyzje sędziów w wymiarze sprawiedliwości i przykładowo mógłby on dyskryminować lub też faworyzować pewne grupy podejrzanych czy przestępców.

 

Poza dyskryminacją rasową, możliwe są także inne rodzaje dyskryminacji dokonywanej przez modele AI [10]:

  • dyskryminacja ze względu na wiek
  • dyskryminacja ze względu na płeć
  • dyskryminacja ze względu na lokalizację geograficzną
  • dyskryminacja ze względu na wykształcenie

Unia Europejska celem adresacji tych zagrożeń zaproponowała ustawę [11], celem ustanowienia standardów wiarygodnego AI, które działa w oparciu o wartości etyczne, moralne, z poszanowaniem demokratycznego prawa i fundamentalnych praw ludzkich.

 

Brak transparentności

W procesach karnych, każdy oskarżony ma prawo do jawnego i sprawiedliwego procesu. Wybrane modele AI dokonując predykcji, nie zawsze pozwalają uzyskać informację dlaczego taki a nie inny rezultat został zwrócony przez model. Przykładowo, sieci neuronowe wykorzystują koncepcję wielu połączonych ze sobą neuronów – elementów sieci które zwykle reprezentują obecność pewnej cechy lub jej brak. Problem w tym, że w bardziej złożonych modelach nie sposób określić który neuron sieci odpowiada za którą cechę, a więc trudno ustalić dlaczego wynik sieci neuronowej jest taki, a nie inny. Można takie modele nazwać porównać do tzw. czarnej skrzynki (‘black-box’) [12].

Prowadzi to do braku transparentności w rezultatach produkowanych przez modele AI w wymiarze sprawiedliwości i podważają ich zgodność z normami etycznymi.

 

Podsumowanie

AI znajduje wiele obiecujących zastosowań w współczesnej kryminologii i kryminalistyce, jednak z uwagi na specyfikę tego obszaru nauki, istnieje ciągle kilka otwartych problemów natury etycznej na drodze do powszechnej adaptacji technik AI w analizie przestępstw i przestępców. Do głównych problemów należą:

  • Wysoka złożoność zbioru danych do analizy
    • Modele AI mające analizować sprawy kryminalne muszą brać pod uwagę dużą ilość czynników i dowodów związanych z każdym wykroczeniem. Sprawy kryminalne z natury nie są jednakowe i nie można do nich stosować żadnego uniwersalnego zbioru reguł, ponieważ motywy ludzi i okoliczności w jakich dochodzi do przestępstwa mogą się bardzo między sobą różnić. Należy więc przygotować odpowiednio bogate zbiory danych, które umożliwiłyby modelom AI wnikliwe przeanalizowanie najdrobniejszych szczegółów dotyczących danej sprawy kryminalnej.
  • Ograniczona dostępność danych treningowych
    • Celem uzyskania dokładnych modeli AI należy zgromadzić odpowiednio duży zbiór danych treningowych by móc przygotować model do działania w środowisku ‘produkcyjnym’. W przypadku gdy model ma analizować okoliczności prawdziwych osób i prawdziwych przestępstw, kontrowersyjne jest wykorzystywanie danych sztucznie wygenerowanych a danych z prawdziwego świata może nie być wystarczająco dużo do przeprowadzenia odpowiedniego treningu modelu.
  • Uprzedzenia (bias) i kierowanie się stereotypami
    • Model AI który miałby pomagać w rozwiązywaniu prawdziwych spraw kryminalnych musi działać w sposób obiektywny i podchodzić do każdego oskarżonego lub sprawcy w sposób indywidualny. Z natury predykcje uzyskiwane z modeli AI wynikają w dużej mierze z danych historycznych, którymi model dysponuje. W efekcie może to prowadzić do dyskryminacji lub faworyzacji pewnych grup osób (np. zamieszkujących obszary o wyższym wskaźniku przestępczości lub osoby danej narodowości).

Mimo wymienionych problemów, badania w kierunku wykorzystywania AI w kryminologii i kryminalistyce mogą w przyszłości prowadzić do opracowania nowych skutecznych metod, nie obarczonych wyżej przytoczonymi ograniczeniami.

Literatura

  1. Wikipedia “Kryminologia” https://pl.wikipedia.org/wiki/Kryminologia

  2. Edukacja Prawnicza “Kryminologia, wiktymologia, kryminalistyka – nauki penalne” https://www.edukacjaprawnicza.pl/kryminologia-wiktymologia-kryminalistyka-nauki-penalne/

  3. Lawyerka “Kryminologia – co to takiego?” https://www.lawyerka.pl/kryminologia-co-to-takiego/

  4. Hayward, K. J., & Maas, M. M. (2021). Artificial intelligence and crime: A primer for criminologists. Crime, Media, Culture, 17(2), 209-233.
  5. Bahnsen, A. C., Torroledo, I., Camacho, L. D., & Villegas, S. (2018, May). Deepphish: simulating malicious ai. In 2018 APWG symposium on electronic crime research (eCrime) (pp. 1-8)
  6. Artykuł o bocie rasiście z twittera https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
  7. Artykuł o autopilocie tesli oszukanym przez drona z projektorem https://thenextweb.com/news/teslas-autopilot-dangerously-fooled-by-drone-mounted-projectors
  8. Broadhurst, R., Maxim, D., Brown, P., Trivedi, H., & Wang, J. (2019). Artificial Intelligence and Crime. Available at SSRN 3407779.
  9. International Bar Association “Artificial intelligence in criminal justice: invasion or revolution?” https://www.ibanet.org/dec-21-ai-criminal-justice
  10. Oswald, M., & Babuta, A. (2019). Data analytics and algorithmic bias in policing
  11. European Commission “Regulation of the european parliament and of the council. Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts” https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
  12. pixelplex “Artificial Intelligence in the Criminal Justice System” https://pixelplex.io/blog/artificial-intelligence-criminal-justice-system/

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…