Home » Uncategorized » Law AI and Data Science. Wykorzystanie narzędzi data science i SI w wsparciu jurysdykcji

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 43

Law AI and Data Science. Wykorzystanie narzędzi data science i SI w wsparciu jurysdykcji

Spread the love

Sztuczna Inteligencja oraz metody i techniki data science ingerują w wiele obszarów naszego życia. Jednym z takich obszarów jest system jurysdykcji, w którym to prężnie rozwijają się narzędzia wspierające pracę adwokatów, prokuratorów i sędziów. Wizja Sztucznej Inteligencji jako bytu będącego w stanie podejmować w pełni obiektywne decyzje, co jest ciężkie lub niemożliwe do uzyskania w przypadku ludzi, wydaje się być kusząca i dająca nadzieję na ulepszone poprawianie działania systemów sprawiedliwości na całym świecie. Czy rzeczywiście jest na to szansa i jakie są zagrożenia?

Internet law concept with 3d rendering ai robot with law scale

Sposoby wykorzystanie AI w jurysdykcji

Na przestrzeni ostatnich lat powstało wiele narzędzi wspierających pracowników jurysdykcji, których implementacja przynajmniej w pewnym stopniu opiera się na działaniu SI. Wykorzystanie tych narzędzi staje się to co raz bardziej powszechne, czego przykładem mogą być: Austria, Wielka Brytania, Francja, Łotwa i Holandia [6]. Cały obszar jurysdykcji można podzielić na kilka pod-obszarów i dla każdego z nich znajdzie się dedykowane narzędzie.

E-Discovery

Jest to najprostszy, a zarazem najczęściej wykorzystywany typ narzędzia wspierającego system prawa [1]. Polega na skanowaniu plików w poszukiwaniu nieuprzywilejowanych informacji związanych z daną sprawą. Oprogramowanie pozwala na skanowanie dokumentów przy użyciu słów kluczowych lub konkretnych parametrów, takich jak daty czy współrzędne geograficzne. Wykorzystanie tego typu narzędzi sprawia, że prawnicy mogą posiąść więcej istotnych informacji i mieć lepsze rozpoznanie w sytuacji.

Analiza prawna

Analiza prawna może być kluczowym aspektem w danej sprawie sądowej. Zwykle wiąże się z identyfikacją, znalezieniem i zacytowaniem informacji i powiązanego aktu prawnego mającego na celu poparcie decyzji lub wzmocnienia siły argumentu. Do tego celu powstało wiele narzędzi, np. [2] i [3], które są podobne do e-discovery z tą różnicą że nakierowane są na przeszukiwanie i skanowanie ogromnych baz danych zawierających akty prawne, regulacje, statuty, i akty spraw. Dzięki takiemu oprogramowaniu prawnicy mogą w prostszy sposób gromadzić istotne dane, które mogą być pomocne np. w zrozumieniu precedensu. Narzędzia tego typu w szczególności wykorzystują techniki związane z przetwarzaniem języka naturalnego (ang. Natural Language Processing), oparte o sieci neuronowe i metody statystyczne.

Przegląd i analiza umów i kontraktów

Procedura korzystania z oceny dokumentów opartej na sztucznej inteligencji jest prosta: system identyfikuje wymagane dokumenty, analizuje je i identyfikuje żądane warunki i klauzule, po czym są gotowe do przeglądu. Przegląd dokumentów w oparciu o sztuczną inteligencję obejmuje dokumenty w różnych językach, rodzajach plików i obszarach praktyki, pomagając w praktycznej ocenie i kategoryzacji dokumentów, co pozwala pracownikom poświęcić więcej czasu na zapewnienie jakości i analizę prawną.

Zarządzanie dokumentami i automatyzacja tworzenia dokumentów

Co raz mniej dokumentów jest przechowywanych w formie papierowej na korzyść formy elektronicznej co umożliwia lepsze zarządzanie i automatyzację działań. Oprogramowanie oparte o Sztuczną Inteligencję jest w stanie samodzielnie tagować i profilować dokumenty, w tym kontrakty, akty spraw, notatki, e-maile, etc., w celu ich lepszej organizacji. Organizacja i przechowywanie dokumentów w ten sposób w połączeniu z wyszukiwaniem pełnotekstowym, przy użyciu takiego narzędzia jak Elasticsearch [4], sprawia że dokumenty są o wiele prostsze do znalezienia. Dodatkowo, narzędzia do zarządzania dokumentami umożliwiają wprowadzenie kontroli dostępu, np. przy użyciu biometryki, a w efekcie poprawę bezpieczeństwa.

Z kolei automatyzacja tworzenia dokumentów polega na generowaniu wypełnionych dokumentów specyficznych dla danej sprawy.

Due diligence

Przeprowadzanie due diligence często wymaga od prawników przeglądu dużej liczby dokumentów, takich jak umowy. Podobnie jak w przypadku innych wyzwań związanych z dokumentami, sztuczna inteligencja może pomóc prawnikom szybciej przeglądać te dokumenty. Oprogramowanie do analizy due diligence może również wykryć wariacje lub zmiany w dokumentach.

Analiza sporów

Ustalenie zasadności postępowania sądowego lub oszacowanie wartości pozwu wymaga obszernej analizy spraw precedensowych. SI może szybko przejrzeć te precedensy i pomóc prawnikom w sporządzeniu dokładniejszych i odpowiednich dokumentów na podstawie tych danych.

Prognoza postępowania sądowego

Ten typ oprogramowania próbuje przewidzieć wynik postępowania sądowego nierozstrzygniętych spraw, wykorzystując jako dane wejściowe korpus odpowiedniego precedensu i konkretny wzorzec faktów danej sprawy. Wykorzystuje się go do planowania strategii procesowych, przyspieszania negocjacji ugodowych i minimalizowania liczby spraw, które faktycznie muszą trafić na rozprawę.

Przykładem takiego rozwiązania operującego w prawie podatkowym jest [5], którego autorzy deklarują 90-procentową skuteczność w przewidywaniu wyniku rozpraw.

Zagrożenia

Z każdą zmianą powstaje ryzyko powstania niepożądanego efektu ubocznego lub konsekwencji, z którą trzeba się zmierzyć. Nie inaczej jest z wykorzystaniem SI w prawie i jurysdykcji, które jest przełomową zmianą. Jeszcze do niedawna praca prawnika związana była z ręcznym przeszukiwaniem ogromnej liczby dokumentów w celu znalezienia istotnych informacji, precedensów i niejasności. Obecny trend wskazuje na to, że liczba obowiązków i sposób ich realizacji ulegnie drastycznej zmianie. Czego można się spodziewać w zamian?

Jedną z istotnych wad stosowania SI jest zmniejszone zapotrzebowanie na obecne stanowiska, spowodowane ich automatyzacją. W rezultacie profesjonaliści związani z kancelariami prawnymi mogą doświadczyć bezrobocia. Według Deloitte około 100 000 miejsc pracy związanych z prawem może zostać zautomatyzowanych do 2036 roku [7].

Kolejnym zagrożeniem jest możliwość monopolizacji rynku spowodowane tym, że licencje oprogramowania wykorzystującego SI są drogie i nie każdą kancelarią na to stać. Z kolei większe, bogatsze firmy, które korzystają z tego typu narzędzi są w stanie obsłużyć więcej klientów, których przejęcie może skutkować upadłością mniejszych firm.

Dwie wymienione kwestie, czyli ryzyko utraty pracy i monopolizacja rynku są naturalną konsekwencją postępu technologicznego i jako ludzkość mieliśmy z tym do czynienia wielokrotnie na przestrzeni ostatnich 150 lat. Wraz z “wymieraniem” pewnych zawodów powstawały inne, wraz ze zmieniającymi się zapotrzebowaniami na rynku pracy. Istnieje jednak pewne ryzyko, nieoczywiste i ciężkie do wykrycia, którego skutki mogą być o wiele bardziej katastrofalne niż konieczność znalezienia nowej pracy.

Beware! Artificial Intelligence is Posing These 5 Risks to Humankind

Błędny model

Osoby pracujące w prawie, a w szczególności w jurysdykcji mogą być specjalistami w swojej dziedzinie. Z łatwością mogą sobie radzić z tonami dokumentów, stresem i szukaniem powiązań między sprawami. Jednak są to osoby, których kontakt z technologią najczęściej ogranicza się do wykorzystywania gotowych urządzeń i programów. Rodzi to ryzyko, że błąd będący skutkiem wadliwego działania programu lub algorytmu może zostać niezauważony, co może mieć katastrofalne konsekwencje, w szczególności że system jurysdykcji często bezpośrednio decyduje o ludzkim losie.

Potencjalny wpływ technologii opartej na SI na wymiar sprawiedliwości można zbadać, rozważając wyzwania związane z już istniejącą technologią, taką jak zarządzanie sprawami i składanie wniosków drogą elektroniczną. W Anglii i Walii prosty błąd obliczeniowy zawarty w oficjalnym formularzu stosowanym w sprawach rozwodowych doprowadził do błędnego obliczenia alimentów w 3600 przypadkach w okresie 19 miesięcy [8]. Problemem nie był sam błąd, ale powody, dla których Ministerstwo Sprawiedliwości i użytkownicy formularza tak długo nie wykryli błędu. Użytkownicy technologii zwykle skupiają się na interfejsach i narzędziach, które umożliwiają korzystanie z systemów technologicznych, a nie na ich wewnętrznym funkcjonowaniu.

Kilka jurysdykcji w Stanach Zjednoczonych przyjęło technologię, która zaleca, jak podejmować decyzje o tymczasowym aresztowaniu. Takie aplikacje wykorzystują algorytmy, które obliczają ryzyko recydywy i „oceniają” oskarżonego na podstawie prawdopodobieństwa popełnienia przestępstwa, jeśli zostanie zwolniony. Ten rodzaj punktacji stawia sędziego w niezręcznej sytuacji. Załóżmy, że istnieje sprawa, w której sędzia jest skłonny do tymczasowego aresztowania oskarżonego, ale wynik wskazuje na wysokie ryzyko recydywy. Czy sędzia powinien być gotowy do sprzeciwienia się kalkulacji oceny ryzyka dokonanej przez maszynę? A co, jeśli oskarżony zostanie zwolniony, a następnie popełni przestępstwo? W standardowym odrzuceniu tego argumentu podkreśla się, że systemy po prostu wykorzystują dostępne dane. Twierdzi się, że zastosowane metody naukowe obliczają ryzyko recydywy w sposób, który jest potężniejszy i bardziej wiarygodny niż te stosowane przez poszczególnych sędziów. Ten argument jest istotny, ale jak możemy zapewnić, że dane nie są stronnicze? Zagwarantowanie poprawnego działania jest znacznie bardziej skomplikowane niż w przypadku prostszej technologii. ProPublica, amerykańska organizacja non-profit, która prowadzi śledztwa w interesie publicznym, porównała rzeczywistą recydywę z przewidywaną. Analiza 10 000 spraw oskarżonych w sprawach karnych wykazała, że ​​czarnoskórzy byli oceniani przez system surowiej, niż to było w rzeczywistości, a biali łagodniej. Ten przykład pokazuje, że poprawność działania jest trudna do osiągnięcia i że takie systemy mogą wprowadzać uprzedzenia do procesów sądowych.

 

Referencje

[1] https://www.clio.com/blog/need-to-know-ediscovery/

[2] https://casetext.com/

[3] https://www.fastcase.com/

[4] https://www.elastic.co/

[5] https://www.bluej.com/

[6] https://www.coe.int/en/web/cepej/practical-examples-of-ai-implemented-in-other-countries

[7] https://www2.deloitte.com/uk/en/services/audit.html

[8] https://www.unodc.org/dohadeclaration/en/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…