Home » AGH 2022/23 » Wykorzystanie narzędzi data science i SI we wsparciu jurysdykcji

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 20

Wykorzystanie narzędzi data science i SI we wsparciu jurysdykcji

Spread the love

Data science i sztuczna inteligencja (AI), jako część czwartej rewolucji przemysłowej, przeobrażają wiele obszarów naszej gospodarki i naszego życia. Zaczynając od finansów, przez marketing aż do medycyny, żaden sektor nie wydaje się niewrażliwy na innowacje związane z AI. Dotyczy to też prawa i sprawiedliwości.

AI i data science daje nadzieję na usprawnienie procesów prawnych, zmniejszenie ich kosztów i zwiększenie dostępności. Nie oznacza to, że stworzenie takich narzędzi będzie tanie. W pierwszej kolejności warto spojrzeć na Stany Zjednoczone, które dzięki swojemu olbrzymiemu rynkowi wewnętrznemu i poszanowaniu praworządności, są miejscem, gdzie takie rozwiązania powstaną najwcześniej.

Automatyzacja zadań rutynowych

Znaczna część pracy prawników polega na wykonywaniu rutynowych działań jak przeglądanie dokumentów lub wyszukiwanie precedensów. Narzędzia AI mogą być użyte do analizy i sortowania dokumentów lub identyfikowanie istotnych informacji.

Badanie prawa

W ujęciu rocznym Kongres uchwala średnio od 200 do 600 ustaw, a Sąd Najwyższy Stanów Zjednoczonych wydaje od 100 do 150 wyroków. Do tego należy dodać wyroki tworzące precedens na niższych instancjach systemu sądowniczego. Ilość dokumentów tworzonych rocznie jest zatrważająca.

Taka ilość danych nie stanowi wyzwania dla AI. Z odpowiednim oprogramowaniem, prawnik może wydajnie wyszukiwać ustawy i wyroki by lepiej i szybciej zrozumieć obecny stan prawny odnośny zadanej mu sprawy.

Analiza dowodów

Wraz z cyfryzacją coraz więcej dowodów przyjmuje formę cyfrową zamiast papierowej. O ile dokumenty cyfrowe są łatwiejsze do przechowywania, ich dokładna analiza nie koniecznie staje się prostsza. Przykładowym dowodem może być kilkuletnia konwersacja pomiędzy dwoma oskarżonymi albo kilka tysięcy faktur pomiędzy szeregiem firm.

Sztuczna inteligencja jest w stanie znaleźć powiązania trudne do zauważenia dla zwykłego człowieka. Jest w stanie to robić na znaczną większą skalę niż człowiek i następnie skrócić swoje odkrycia w kilka zdań.

Dostęp do sprawiedliwości

Sztuczna inteligencja i uczenie maszynowe mają potencjał do zmniejszenia barier na drodze do sprawiedliwości — najbardziej znaczący jest wysoki koszt dostępu do pomocy prawnej. Dzięki oszczędzaniu czasu na manualnej i rutynowej pracy prawniczej można obniżyć koszty dla klientów. Obniżenie kosztów wynikałoby z oszczędności czasu np. badania, które wcześniej trwały 20 godzin, wymagałyby tylko dwóch. Zaoszczędzony czas można przeznaczyć też na obsługę większej liczby klientów.

Narzędzia oparte na sztucznej inteligencji mogą być też niezwykle pomocne w indywidualnej, wstępnej analizie prawnej. Osoba fizyczna może wykorzystać narzędzia implementujące wspomniane wyżej zastosowania do przeprowadzenia wstępnej oceny swojej sytuacji od strony prawnej i pomóc w płytkim stwierdzeniu, czy powinna szukać sprawiedliwości.

Wszystko to pozwala na wstępne zrozumienie sprawy i lepsze przygotowanie do konsultacji z prawnikiem. Warto jednak zaznaczyć, że AI to tylko narzędzie pomocnicze — prawdziwe, profesjonalne porady prawne powinny zawsze pochodzić od wykwalifikowanych prawników.

Pełna automatyzacja procesów prawnych

Obecnie bezpośrednie używanie AI w trakcie rozprawy jest niemożliwe. W sali sądowej za Atlantykiem zabronione jest używanie jakiegokolwiek urządzenie elektronicznego bez pozwolenia sędziego. Tworzony przez niektórych fanatyków technologi pojęcie obrońcy powtarzającego co mu powie AI przez słuchawki w uszach, jest nie do zrealizowania w obecnym porządku prawnym. Prawo jednak można zmienić i będzie się zmieniało w odpowiedzi na technologię.

Warto na początku zauważyć, że obecne modele oparte na transformatorach, jak modele z rodziny GPT, nie mają wystarczających możliwości, by zastąpić w pełni człowieka w jakiejkolwiek roli na sali sądowej. Na pewno mogą przyspieszyć procesy i wspomagać prawników w rutynowych zadaniach, jednak na obecnym etapie rozwoju sztucznej inteligencji, są one dalekie od pełnego zrozumienia i interpretacji zawiłości prawa, które zwykle wymaga wszechstronnej wiedzy, empatii i zdolności do oceny etycznej — aspektów unikalnych dla ludzkiego umysłu.

Choć modele GPT mogą generować wysoce koherentne i gramatycznie poprawne teksty, to regularnie doświadczają tak zwanych halucynacji. Model, zamiast przekazać, że czegoś nie wie, to tworzy nową wiedzę niezgodną z prawdą. Nie mogą one również ocenić wiarygodności źródeł, wykazać się krytycznym myśleniem ani zrozumieć skomplikowanych, wielowymiarowych aspektów ludzkich emocji i doświadczeń, które są nieodłącznym elementem wielu spraw sądowych.

Możemy jednak założyć, na potrzeby eksperymentu myślowego, że taka sztuczna inteligencja istnieje. SI zdolna do zrozumienia i interpretacji prawa, a także oceny dowodów z perspektywy zarówno logicznej, jak i etycznej. SI zdolna zastąpić sędziego, obrońcę i prokuratora jednocześnie. Pojawia się pytanie, czy chcielibyśmy taki wymiar sprawiedliwości?

Pytanie etniczne

Niezależnie od potencjału nawet hipotetycznego AI, pełna automatyzacja procesu sądowniczego stawia pytania dotyczące etyki, sprawiedliwości i odpowiedzialności. Wydaje się ona atrakcyjna z punktu widzenia efektywności. Dzięki niej każdy mógłby dochodzić sprawiedliwości w rozsądnej cenie. Tylko czy na pewno byłaby to sprawiedliwość, której pożądamy?

Odpowiedzialność

Kwestia odpowiedzialności pojawia się zawsze, kiedy jakaś akcja wykonywana przez człowieka jest zastąpiona przez jakikolwiek algorytm. Kto będzie odpowiedzialny, gdy sztuczna inteligencja popełni błąd? Czy to będzie programista, który stworzył algorytm, firma, która go zastosowała, czy może system prawny, który pozwolił na jego użycie? A może sztuczna inteligencje będzie już tak zaawansowana, że to ona sama będzie mogła ponieść odpowiedzialność, jako nieodłączny obywatel naszego społeczeństwa?

Warunki stawiane przed algorytmem zdolnym zastąpić system sprawiedliwości są tak wysokie, że spełnić je może tylko AGI, silne sztuczna inteligencji. Przy spekulacjach na temat tak zaawansowanej sztucznej inteligencji, warto zaznaczyć, że koncepcja AI jako samodzielnego, odpowiedzialnego podmiotu generuje kolejne filozoficzne i etyczne wyzwania.

Czy maszyna, bez względu na jej zaawansowanie, może naprawdę być odpowiedzialna za swoje działania w tym samym sensie, co człowiek? Czy mogłaby rozumieć konsekwencje swoich decyzji i odpowiedzieć na ewentualne błędy? Nawet jeśli technologicznie możliwe jest stworzenie tak zaawansowanej sztucznej inteligencji, czy jako społeczeństwo jesteśmy gotowi na tak radykalną zmianę naszej koncepcji odpowiedzialności?

To wszystko są pytania, na które musimy znaleźć odpowiedzi, zanim zdecydujemy się na zastąpienie tradycyjnego wymiaru sprawiedliwości przez systemy oparte na sztucznej inteligencji.

Stronniczość

Modele uczenia maszynowego są tak dobre, jak dane, które posiadamy do uczenia. Jeśli dane przechylają się w kierunku danego wyznania, rasy lub kultury, to AI wyszkolone na nich odziedziczy po nich przekonania. System sądowniczy Stanów Zjednoczonych jest surowszy dla osób z czarnym kolorem skóry, cyganie w Europie też nie mają najłatwiej.

Usunięcie danych mogących stanowić podstawę dyskryminacji nie usuwa uprzedzeń z danych. AI może nauczyć się odzyskiwać usunięte cechy na podstawie innych danych jak np. miejsce zamieszkania. Naukowcom udało się wyszkolilić sieć, której wystarczy zdjęcie klatki piersiowej, by estymować rasę fotografowanego. Sztuczna inteligencja mająca dostęp do aktów sprawy nie powinna mieć większego problemu, by odtworzyć uprzedzenia.

Biorąc pod uwagę to, że uprzedzenia mogą być utrwalane i odtwarzane przez sztuczną inteligencję, pojawia się pilna potrzeba rozwijania i implementowania odpowiednich strategii i regulacji, które zapobiegają dyskryminacji i niesprawiedliwości. Oczywiście, nie można też wykluczyć wypadku, w którym celowo jako społeczeństwo popieramy uprzedzenia. Wielkość i złożoność obecnego systemu sprawiedliwości jest dobrą tarczą przed oskarżeniami o celową dyskryminację. Uproszczenie procesu przy pomocy sztucznej inteligencji może zabrać tę osłonę i wymusić na krajach, by były bardziej otwarte, kogo chcą, a kogo nie chcą w swoim społeczeństwie.

Sprawiedliwość

Powszechnym wątkiem w systemie sprawiedliwości jest fakt, że za większe pieniądze można wynająć lepszego prawnika, a za jeszcze większe pieniądze całą drużynę prawników. Pełna automatyzacja systemu sądowniczego, zamiast zmniejszyć nierówności w dostępie do sprawiedliwości ze względu na finanse może tę nierówność zwiększyć.

Jeśli zaawansowane narzędzia sztucznej inteligencji stają się dostępne jedynie dla tych, którzy mogą sobie na nie pozwolić, potęguje to dysproporcje między zamożnymi i mniej zamożnymi stronami. Łatwo wyobrazić sobie sytuację, w której jedna strona dysponuje najnowocześniejszymi modelami AI, bez ograniczeń obliczeniowych i energetycznych, podczas gdy druga strona polega na starszych modelach z mniejszą mocą obliczeniową. Taka dysproporcja może zaszkodzić fundamentom sprawiedliwości.

Jest to szczególnie istotne w przypadku obrony osób, które nie są w stanie pozwolić sobie na skomplikowane usługi prawnicze oparte na AI. Bez odpowiedniego dostępu do tych technologii, mogą one zostać postawione w niekorzystnej sytuacji.

Podsumowanie

AI i data science mają ogromny potencjał w sektorze prawnym, zastosowanie tych technologii niesie ze sobą istotne wyzwania etyczne i regulacyjne, które muszą być starannie rozważone. Obecnie technologie AI są i mogą być wykorzystywane do przyspieszenia procesów prawnych, automatyzacji rutynowych zadania i zwiększenia dostępności usług prawnych.

Pełna automatyzacja systemu sprawiedliwości jest odległą przyszłością. Nawet jeśli pojawią się SI przystosowane do tego zadania, to ciągle pozostaje nierozwiązana kwestia odpowiedzialności i powielania uprzedzeń w danych. Tworzy to też zagrożenie pogłębienia nierówności, jeżeli zaawansowane narzędzia AI stają się dostępne tylko dla osób, które mogą sobie na nie pozwolić.

Nie wiadomo co przyniesie przyszłość, ale na pewno przyniesie zmiany. Zmiana jest nieuchronna, nie zawsze dobra. Jednak zawsze jest nadzieją na lepszą przyszłość.

Bibliografia:


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…