Home » Uncategorized » Maszynowi prawnicy – Law AI and Data Science

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 100
  • 616
  • 25 026
  • 7 315
  • 35

Maszynowi prawnicy – Law AI and Data Science

Spread the love

Prawo jest jedną z najstarszych dziedzin nauki. Jego zasady różniły się znacznie, i nadal różnią, w zależności od sytuacji geopolitycznej, historii kraju czy kultury. Jest przy tym często postrzegane jako sztywne, oporne zmianom i nowinom. Czy jest jednak w nim miejsce dla nowoczesnego AI? Przyjrzymy się istniejącym i możliwym przyszłym zastosowaniom uczenia maszynowego we wsparciu jurysdykcji oraz z problemami z tym związanymi, na które już wskazują analizy prawne.

Digitalizacja prawa

Trend unowocześniania właściwie wszystkich dziedzin życia, a w szczególności zastosowania w nich ML, przybiera w ostatnich latach na sile. Metody AI są obecnie stosowane w mniejszym lub większym stopniu na wszystkich etapach postępowania sądowego: począwszy od samych sposobów popełniania przestępstw [1] (cybercrimes, np. doxxing, hacking), metody kryminologii jak wykrywanie twarzy czy analiza DNA [2], aż po sam proces sądowy, w którym używa się algorytmów do oceny ryzyka recydywizmu [3, 4]. Szczególnie na uwagę zasługuje tutaj system prawny USA, w którym, dzięki względnej niezależności stanowych systemów jurysdykcji oraz silnym powiązaniu z firmami prywatnymi, takie nowości techniczne są wdrażane znacznie szybciej i częściej w porównaniu do innych krajów [5]. Pojawiają się tam też już pierwsze precedensy i wskazówki dla prawników, a także debata o kwestiach moralnych i etycznych związanych z dziedziną AI w prawie.

Kryminologia

Przestrzeń informacji możliwych do wykorzystania w celu podjęcia decyzji prawnej jest bardzo dużo. Nie bez powodu sędziowie, którym powierzamy w tej kwestii zaufanie muszą najpierw przejść bardzo wymagające studia a następnie praktykować przez lata zanim będą mogli pełnić swoją funkcję. W związku z tym ich czas jest bardzo cenny a sprawy sądowe i tak już wiążą się z potrzebą przekopania przez ogromną ilość dokumentów i aspektów sprawy. W związku z tym bardzo pomocne w całym procesie są narzędzia sztucznej inteligencji będące w stanie wykonać chociaż część tej pracy za człowieka. Nie tylko przeglądają one przestrzeń informacji związanych ze sprawą, ale również poszerzają ją o nowe metody. Poniżej przybliżymy kilka ich rodzajów.

Metody biometryczne

Biometryka to badanie i rozwijanie statystycznych i matematycznych metod stosowanych do analizy danych w naukach biologicznych [6]. W kryminologii znajdują one zastosowanie zarówno w identyfikacji tożsamości osób jak i weryfikacji podanych przez nich danych. Techniki biometryczne były stosowane przez ludzi już od dawna. Babilończycy wykorzystywali odciski palców do potwierdzania transakcji handlowych. Starożytni Rzymianie umieli już porównywać charaktery pisma. Podróżnik i odkrywca Joao de Barros donosił iż Chińczycy w XIV w. wykorzystywali odciski dłoni i stóp do rozróżniania dzieci. W dzisiejszych czasach podobne zadania wykonuje za nas sztuczna inteligencja. Z pomocą metod rozpoznawania obrazów jesteśmy w stanie porównywać cechy fizjologiczne takie jak odciski palców, charakterystykę twarzy, dłoni oraz sekwencje DNA, co na pewno widzieliśmy w popularnych serialach detektywistycznych.

 W zakres biometryki wchodzi też porównywanie cech behawioralnych takich, jak rozpoznawanie mowy, pisma a nawet charakteru wciskania przycisków klawiatury w trakcie pisania.

Profilowanie

W dobie internetu ilość danych, na podstawie których można przydzielać ludzi do grup jest ogromna. Poruszanie się po internecie zostawia ślady, na podstawie których modele informatyczne przygotowują naszą charakterystykę chociażby w celach reklamowych. Na podobnej podstawie można też tworzyć profile psychologiczne istotne w jurysdykcji. Czy nawet nie figurując w żadnych kartotekach możemy zostać zakwalifikowani jako jednostki niebezpieczne? W 2015 r. policja w Delhi i Indyjska Organizacja Badań Kosmicznych – Instytut Badawczy Zaawansowanego Przetwarzania Danych (ISRO-ADRIN) podjęły współpracę w celu opracowania Systemu Mapowania Przestępczości, Analizy i Prognozowania (CMAPS) – aplikacji internetowej wdrożonej w Komendzie Głównej Policji w Delhi i dostępnej przez przeglądarkę we wszystkich komisariatach i dzielnicach Delhi. [7] Aplikacja wykonuje analizy trendów, zestawia profile przestępstw i kryminalne oraz analizuje zachowanie osób podejrzanych o popełnienie przestępstwa – wszystko to z towarzyszącą grafiką. CMAPS posiada również moduł bezpieczeństwa do oceny zagrożenia VIP na podstawie podatności potencjalnego celu i zastosowanych zabezpieczeń oraz zaawansowaną analizę predykcyjną. Jednocześnie organizacje społeczeństwa obywatelskiego uważają, że systemy AI w egzekwowaniu prawa, zwłaszcza w zakresie przewidywania i profilowania, dyskryminują najbardziej zmarginalizowane grupy społeczne, naruszają wolność i prawo do rzetelnego procesu sądowego oraz wzmacniają strukturalną dyskryminację.

Analiza prawna

Ilość informacji, które należy przeanalizować w sprawach sądowych jest ogromna. Szczególnie w systemach precedensowych takich, jak ten w USA przeszłe procesy są bardzo istotnym wyznacznikiem decyzji. Nawet w naszym rodzimym systemie sprawy trwające latami nagromadzą stosy zapisów. Wykorzystując techniki przetwarzania języka naturalnego, systemy informatyczne są w stanie przeskanować przeszłe dokumenty i wyróżnić w nich potrzebne informacje. Systemy takie jak e-discovery czy Elasticsearch są już stosowane w praktyce. Powstają również aplikacje pozwalające osobom niezaznajomionym z prawem odpowiedzieć na konkretne związane z przepisami pytania. Przykładem takiego systemu jest np. Lemkin [10].

Ocena algorytmu a prawa osobiste

Systemy algorytmicznej oceny ryzyka recydywy stają się nie tylko standardem, ale nawet wymaganiem prawnym [5]. Z perspektywy uczenia maszynowego jest to zadanie klasyfikacji, czy w określonym czasie dana osoba popełni przestępstwo, czy też nie. Mogą tu być brane pod uwagę różnorodne cechy, które mogą być mniej lub bardziej kontrowersyjne: wiek, płeć, kolor skóry, informacje socjoekonomiczne (np. zamożność rodziny czy okolicy zamieszkania) czy historia poprzednich przestępstw. Odpowiedni feature engineering stanowi postawę poprawnych algorytmów ML. Pytanie jednak – czy jeżeli nawet cecha ulepsza zadane metryki na zbiorze danych, to czy uzasadnia to jej użycie?

Tradycyjna nazwa ML to “pattern recognition” – rozpoznawanie wzorców. W tym kontekście jednak można by też jednak użyć słowa “stereotypów”. Algorytmy te uczą się bowiem klasyfikacji ludzi i będą z natury wyciągać pewne uogólnienia, z perspektywy oskarżonych krzywdzące. Przykładowo, jeżeli model posiadałby informację o kolorze skóry, to jego celność może wzrosnąć, bo zaklasyfikuje wszystkie osoby czarnoskóre jako przyszłych recydywistów. Jednak siłą rzeczy odbiera to indywidualizm osądu dla danej osoby, co jest wprost sprzeczne z prawem, a ponadto wątpliwe moralnie.

Kwestie te podniesiono w sprawie State vs Loomis (881 N.W.2d 749 (Wis. 2016) [5]. Sędzia, skazując E. Loomisa na 6 lat więzienia, odwołał się wprost w wyroku do wyniku otrzymanego z systemu COMPAS. Jest to własnościowy system oceny ryzyka recydywizmu, wykorzystujący ponad 130 cech o oskarżonym. Zestaw użytych cech nie jest znany publicznie. Pomimo licznych prób, kolejne instancje zabraniały udostępnienia kodu źródłowego adwokatowi Loomisa, nawet przy zachowaniu pełnej niejawności, powołując się na prawa własności intelektualnej. Podobne wyroki zapadały w wielu stanach USA [5]. W kwestii tej postawiono interes firmy i tajność produktu nad jawność wymiaru sprawiedliwości, co budzi liczne kontrowersje.

Aby przedstawić ryzyko niejawnych systemów ML zastosowanych w wymiarze sprawiedliwości oraz optymalizację tylko pod zadaną metrykę, w [4] stworzono prosty system regułowy CORELS, uzyskujący podobne wartości licznych metryk (true / false positive rate, true / false negative rate) co system COMPAS. System CORELS korzysta jednak z tylko 3 cech: wiek, liczba poprzednio popełnionych przestępstw, płeć. Pokazuje to nie tylko, jak bardzo można uprościć takie systemy, ale też jak bardzo, pomimo pozornej złożoności, potrafią być trywialne, optymalizując tylko pod zbiory danych.

Wykorzystanie jakichkolwiek systemów AI do oceny ryzyka powoduje jednak zasadniczy problem w postaci błędów poznawczych (cognitive biases). Niezależnie od otwartości i uczciwości systemu (w sensie użytych cech, metryk etc.) sędzia, gdy zobaczy negatywną opinię algorytmu przed wydaniem wyroku, z dużym prawdopodobieństwem będzie się tym podświadomie kierował [8]. Co więcej, nawet algorytmy podające pewność swojej decyzji nie byłyby tutaj pomocne ze względu na zjawisko kotwiczenia (anchoring). Jest to zjawisko znane z ekonomii behawioralnej, w którym człowiek opiera się na dowolnym dostępnym dowodzie, niezależnie od jego słabości, podczas podejmowania decyzji [9]. W przypadku użycia systemów zautomatyzowanych może to powodować kierowanie się przez sędziego uogólnieniami i wzorcami wyuczonymi przez algorytm, zmniejszając należytą indywidualność osądu.

Podsumowanie

Sztuczna inteligencja znajduje zastosowanie w dziedzinie prawa. Nie są to tylko teoretyczne, przyszłościowe rozważania, ale coś, co już występuje i staje się częścią obowiązujących przepisów. Pozostaje jednak kwestią otwartą, czy pytania i problemy, które pojawią się w związku z tym, nie powinny zostać najpierw rozwiązane przed wdrożeniem takich rozwiązań. Kwestie prywatności, dostępu do informacji o nas samych czy zrozumienia wpływu AI na naszą pozycję prawną będą bez wątpienia w najbliższych latach pojawiać się w debacie publicznej. Wyroki wydawane przez sądy opierały się, opierają, a zapewne w przyszłości jeszcze bardziej będą opierać się na automatyzacji zapewnionej przez uczenie maszynowe. Ze względu na złożone kwestie techniczne rolą osób wykształconych w tym kierunku jest wyjaśnienie prawnikom działania i konsekwencji tych narzędzi, tak, aby mogły one służyć wymiarowi sprawiedliwości. Metody te mogą bowiem, zastosowane bez należytej kontroli i zrozumienia, zmienić obraz sądownictwa w dziedzinę opartą na stereotypach, uogólnieniach i najbardziej prawdopodobnych możliwościach, zamiast należycie zindywidualizowanego podejścia.

 

[1] P. Pednekar “Cyber Crimes: An Overview”. ISSN 2249-9598

[2] B. Klimza “Sztuczna inteligencja i Data Science w kryminologii. Jak metody automatycznego przetwarzania pozwalają rozwikłać sprawy kryminalne” (http://architeles.pl/ethics/index.php/2022/05/04/sztuczna-inteligencja-i-data-science-w-kryminologii-jak-metody-automatycznego-przetwarzania-pozwalaja-rozwiklac-sprawy-kryminalne/)

[3] “Brennan T, Dieterich W, Ehret B. “Evaluating the Predictive Validity of the COMPAS Risk and Needs Assessment System”. Criminal Justice and Behavior. 2009 January;36(1):21–40.

[4] C. Rudin. “Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead.” Nature Machine Intelligence 1.5 (2019): 206-215.

[5] Harvard Law Review. “State v. Loomis. Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing.”. https://harvardlawreview.org/2017/03/state-v-loomis/

[6] https://www.mimuw.edu.pl/~std/Dydaktyka/PPK/C0405.pdf

[7] https://www.livemint.com/technology/tech-news/ai-profiles-predict-crimes-fast-but-can-discriminate-against-the-poor-11646590850806.html

[8] ANGÈLE CHRISTIN ET AL., COURTS AND PREDICTIVE ALGORITHMS 8 (Oct. 27, 2015), http://www.datacivilrights.org/pubs/2015-1027/Courts_and_Predictive_Algorithms.pdf

[9] Thomas Mussweiler & Fritz Strack, Numeric Judgments Under Uncertainty: The Role of Knowledge in Anchoring, 36 J. EXPERIMENTAL SOC. PSYCHOL. 495, 495 (2000); Amos Tversky & Daniel Kahneman, Judgment Under Uncertainty: Heuristics and Biases, 185 SCIENCE 1124, 1128–30 (1974).

[10] Lemkin – inteligentny system informacji prawnej. https://lemkin.pl/


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…