Home » AGH 2024/25 » Wykorzystanie sztucznej inteligencji do egzekwowania prawa i monitorowania porządku publicznego w miastach przyszłości – czy algorytmy analizujące zachowania mieszkańców i autonomiczne systemy nadzoru poprawią bezpieczeństwo, czy staną się narzędziem masowej inwigilacji i ograniczania praw obywatelskich

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 2 099
  • 6 966
  • 39 175
  • 12 472
  • 104

Wykorzystanie sztucznej inteligencji do egzekwowania prawa i monitorowania porządku publicznego w miastach przyszłości – czy algorytmy analizujące zachowania mieszkańców i autonomiczne systemy nadzoru poprawią bezpieczeństwo, czy staną się narzędziem masowej inwigilacji i ograniczania praw obywatelskich

Spread the love

Miasta przyszłości tworzymy dziś. Każde wdrożenie nowej technologii to decyzja o tym, jak będzie wyglądać przestrzeń jutra – coraz bardziej inteligentna, cyfrowo zintegrowana, sterowana algorytmami. Coraz głębiej ingerująca w naszą codzienność. Czy inteligentne systemy nadzoru naprawdę uczynią miasta bezpieczniejszymi? A może przekształcą je w cyfrowe panoptikony, w których prywatność stanie się luksusem, a wolność – iluzją?

Pod okiem algorytmu

Sztuczna inteligencja znajduje szerokie zastosowanie w różnych obszarach monitorowania i egzekwowania prawa, umożliwiając automatyzację oraz analizę dużych zbiorów danych w celu identyfikacji zagrożeń i przewidywania przestępstw.

Do kluczowych zastosowań należą m.in. identyfikacja fałszywych dokumentów oraz środków płatniczych, co może znacznie uprościć procesy weryfikacyjne. Algorytmy wspierają także automatyzację procesów prawnych, ułatwiając analizę dokumentów i dowodów, a także poprawiając skuteczność wyszukiwania, np. poprzez analizę odcisków palców w bazach danych. Dzięki sztucznej inteligencji możliwe jest szybkie wykrywanie wzorców przestępczości i przewidywanie potencjalnych zagrożeń. Algorytmy mogą także analizować zachowania użytkowników w mediach społecznościowych, oceniając prawdziwość informacji i identyfikując podejrzaną aktywność w systemach informatycznych.

Kluczowe obszary zastosowań

  1. Monitoring miejski i analiza obrazu z kamer

  2. Predictive policing – przewidywanie przestępstw

  3. Autonomiczne systemy patrolowe

  4. Analiza big data i mediów społecznościowych

  5. Sztuczna inteligencja w sądownictwie i administracji policyjnej


Nowa era bezpieczeństwa miejskiego

Wprowadzenie sztucznej inteligencji do systemów monitorowania porządku publicznego otwiera nowy rozdział w zarządzaniu bezpieczeństwem miast. Dzięki analizie danych w czasie rzeczywistym i automatyzacji wielu procesów, SI staje się narzędziem, które może znacząco zwiększyć skuteczność służb porządkowych, a tym samym poprawić jakość życia mieszkańców.

Korzyści wynikające z zastosowania sztucznej inteligencji w tym obszarze mogą być liczne.

1. Szybsza reakcja na incydenty i zagrożenia

Systemy oparte na SI analizują dane w czasie rzeczywistym, umożliwiając natychmiastowe wykrycie niepokojących wzorców i anomalii – na przykład nietypowych zachowań w przestrzeni publicznej. Dzięki temu służby mogą szybko reagować na zagrożenia, minimalizować ich skutki oraz zwiększać poczucie bezpieczeństwa wśród mieszkańców.

2. Prewencja przestępczości i identyfikacja zagrożeń

Algorytmy predykcyjne potrafią identyfikować miejsca i sytuacje o podwyższonym ryzyku, co umożliwia podejmowanie działań wyprzedzających. Systemy ostrzegania oparte na analizie danych historycznych i bieżących pozwalają lepiej planować interwencje i rozmieszczenie patroli.

3. Optymalizacja rozmieszczenia zasobów

SI wspiera strategiczne rozmieszczanie sił i środków w obszarach, gdzie są one najbardziej potrzebne. Dzięki analizie danych możliwe jest efektywniejsze wykorzystanie ograniczonych zasobów – zarówno ludzkich, jak i materialnych.

4. Automatyzacja rutynowych działań

Systemy oparte na AI mogą przejąć czasochłonne i powtarzalne zadania, takie jak ciągły monitoring wideo, wstępna analiza nagrań, automatyczne sortowanie zgłoszeń i przekazywanie ich do odpowiednich jednostek. Dzięki temu funkcjonariusze mogą skupić się na działaniach wymagających ludzkiej interwencji i oceny.

5. Wspomaganie dochodzeń kryminalistycznych

Zaawansowane narzędzia analityczne pomagają w zbieraniu i przetwarzaniu dowodów – np. przez:

  • automatyczne przeszukiwanie materiałów wideo,

  • analizę wzorców zachowań podejrzanych osób,

  • identyfikację powiązań między zdarzeniami.

To znacząco przyspiesza prowadzenie dochodzeń i zwiększa skuteczność ścigania sprawców.

6. Zwiększenie bezpieczeństwa obywateli

Lepsze monitorowanie przestrzeni publicznej i szybsza reakcja na zagrożenia przekładają się na realny wzrost poziomu bezpieczeństwa. Mieszkańcy czują się bardziej chronieni, widząc, że służby wspierane są przez nowoczesne i skuteczne technologie.

7. Redukcja kosztów operacyjnych

Automatyzacja procesów i inteligentna analiza danych mogą obniżyć koszty związane z tradycyjnymi metodami monitorowania i interwencji. Pozwala to efektywniej wykorzystywać środki publiczne – zarówno w działaniach prewencyjnych, jak i w sytuacjach wymagających udziału człowieka.

Szczęśliwy obywatel
Obywatel bezpieczny dzięki systemom AI według ChatGPT

Zaktualizowany panoptikon

Mimo licznych zalet, wykorzystanie SI w egzekwowaniu prawa wiąże się z istotnymi wyzwaniami.

1. Nadmierne zaufanie do nieperfekcyjnych narzędzi – błędy oprogramowania, błędy w danych, a w rezultacie np. możliwość błędnej identyfikacji osób, które prowadzą do fałszywych oskarżeń lub systemowej dyskryminacji.

  • Dyskryminacja: Algorytmy, bazując na niepełnych lub stronniczych danych, mogą faworyzować lub dyskryminować określone grupy społeczne.

2. Nadużycia technologii – inwigilacja i naruszanie praw obywatelskich, państwo nadzoru, nadużycia władzy, problem przejrzystości, brak odpowiedzialności za podjęte decyzje.

  • Prywatność: Systemy nadzoru mogą prowadzić do naruszenia prywatności obywateli, zbierając dane bez ich zgody.
  • Brak transparentności: Decyzje podejmowane przez SI mogą być trudne do zrozumienia i kwestionowania, co rodzi obawy o odpowiedzialność i kontrolę.

3. Podatności na ataki hakerskie


Ryzyko masowej inwigilacji i naruszenia prywatności

Zaawansowane systemy monitoringu, takie jak rozpoznawanie twarzy czy analiza wzorców zachowań, mogą prowadzić do sytuacji, w której każdy ruch obywatela jest rejestrowany i analizowany. Takie technologie mogą być wykorzystywane nie tylko do zwiększenia bezpieczeństwa, ale także do śledzenia i kontrolowania społeczeństwa.

  • Przykład: W Chinach system „Skynet” monitoruje obywateli za pomocą milionów kamer, co wywołuje obawy o nadużycia w zakresie kontroli społecznej.
  • Zagrożenie: Masowe zbieranie danych może prowadzić do ograniczenia swobód obywatelskich i stworzenia państwa nadzoru.

    Współczesny panoptikom według ChatGPT
    Współczesny panoptikon według ChatGPT

Błędy algorytmów i ryzyko niesprawiedliwych oskarżeń

Algorytmy SI nie są wolne od błędów – mogą źle interpretować dane, prowadząc do niesłusznych oskarżeń lub błędnych decyzji.

  • Przykład: W 2020 roku w Detroit doszło do aresztowania niewinnej osoby na podstawie błędnej identyfikacji przez system rozpoznawania twarzy.
  • Zagrożenie: Błędne decyzje mogą skutkować naruszeniem praw jednostek, zwłaszcza jeśli algorytm działa w sposób nietransparentny.

Dyskryminacja i uprzedzenia w algorytmach (bias)

Modele SI mogą powielać i wzmacniać istniejące uprzedzenia społeczne, szczególnie jeśli są trenowane na nieobiektywnych danych.

  • Przykład: System COMPAS stosowany w USA do oceny ryzyka recydywy okazał się niesprawiedliwie klasyfikować osoby czarnoskóre jako bardziej skłonne do popełnienia przestępstw.
  • Zagrożenie: Nierówne traktowanie obywateli przez algorytmy może prowadzić do dyskryminacji rasowej, społecznej lub ekonomicznej.

Brak przejrzystości i trudność w rozliczalności decyzji SI

Wiele systemów SI działa jako „czarne skrzynki” – ich decyzje są trudne do zrozumienia i przeanalizowania przez człowieka. Dodatkowo brakuje jednoznacznych regulacji dotyczących stosowania SI w egzekwowaniu prawa, co prowadzi do niepewności prawnej i potencjalnych nadużyć.

  • Przykład: Wykorzystywanie SI w systemach sądowych może prowadzić do sytuacji, w której decyzje dotyczące losu obywatela nie są w pełni zrozumiałe. Unia Europejska pracuje nad regulacjami dotyczącymi SI, ale obecnie nie ma jednolitych standardów w skali globalnej. I co z wielkimi korporacjami?
  • Zagrożenie: Bez odpowiednich przepisów obywatele mogą być narażeni na niesprawiedliwe traktowanie i naruszenie ich praw. Brak przejrzystości sprawia, że trudno ocenić, czy dany system działa sprawiedliwie i zgodnie z zasadami prawa.

Możliwość nadużyć przez rządy i korporacje

SI może być używana do celów politycznych, kontroli społeczeństwa lub represji wobec określonych grup obywateli.

  • Przykład: W niektórych krajach systemy SI wykorzystywane są do tłumienia protestów i śledzenia opozycji politycznej.
  • Zagrożenie: Możliwość wykorzystania technologii do celów autorytarnych i ograniczania wolności słowa.

Możliwość cyberataków i manipulacji algorytmami

Zaawansowane systemy SI mogą stać się celem ataków hakerskich lub manipulacji danymi.


Analiza przypadków

Chiny: system kredytu społecznego i zaawansowany monitoring

System kredytu społecznego w Chinach to program oparty na masowej inwigilacji i ocenie obywateli na podstawie ich zachowania. Dane zbierane są m.in. z kamer z rozpoznawaniem twarzy, historii zakupów, aktywności w internecie i zachowań społecznych.


Jak to działa?

  • Obywatele są punktowani – za „dobre” zachowanie (np. terminowe płatności) można dostać bonusy,

  • Za „złe” (np. krytykę władz, niespłacone długi) – kara: np. zakaz lotów, brak dostępu do usług publicznych, publiczne „ośmieszanie”.


Monitoring podczas pandemii COVID-19

  • Aplikacje śledzące lokalizację i stan zdrowia (np. kody QR w kolorach: zielony/żółty/czerwony),

  • Kamery z termowizją i AI do rozpoznawania osób bez masek,

  • Pretekst pandemii do dalszego zacieśnienia kontroli – np. zakazy opuszczania domów, śledzenie kontaktów.


Obawy

  • Brak przejrzystości i możliwości odwołania się od decyzji,

  • Trwała utrata prywatności,

  • Model autorytarny inwigilacji, który może być kopiowany przez inne państwa.


Stany Zjednoczone

Predictive policing

Przypadki dyskryminacji, w Chicago i Los Angeles algorytmy wskazywały osoby jako „potencjalnie niebezpieczne” bez dowodów — tylko na podstawie analizy danych, co zostało mocno skrytykowane przez obrońców praw człowieka.

Edward Snowden – demaskator masowej inwigilacji

W 2013 roku Edward Snowden, były pracownik CIA i współpracownik NSA (Agencji Bezpieczeństwa Narodowego USA), ujawnił tajne dokumenty pokazujące, że amerykański rząd prowadzi masową inwigilację obywateli na całym świecie.

  • Programy takie jak PRISM, umożliwiające NSA dostęp do danych z Google, Facebooka, Apple i innych firm.

  • Podsłuchiwanie rozmów telefonicznych i śledzenie e-maili milionów ludzi – bez ich wiedzy.

  • Inwigilacja nie tylko „podejrzanych”, ale także sojuszników USA, dziennikarzy, a nawet polityków (np. kanclerz Angeli Merkel).

Facebook-Cambridge Analytica data scandal

W 2018 roku ujawniono, że firma Cambridge Analytica zdobyła dane osobowe ok. 87 milionów użytkowników Facebooka — bez ich wiedzy ani zgody. Dane te zostały wykorzystane do:

  • tworzenia psychologicznych profili wyborców,

  • mikrotargetowania reklam politycznych,

  • wpływania na wyniki wyborów, m.in. kampanię Donalda Trumpa w 2016 roku i referendum ws. Brexitu.


Unia Europejska

UE od lat próbuje uregulować obszar danych i sztucznej inteligencji:

  • RODO (GDPR) – od 2018 r. chroni dane osobowe obywateli,

  • AI Act – pierwsza kompleksowa regulacja dotycząca sztucznej inteligencji (zatwierdzona w 2024), klasyfikująca systemy AI według poziomu ryzyka,

  • Dodatkowe działania: ochrona przed deepfake’ami, walka z dezinformacją, przejrzystość algorytmów.

W Polsce również opracowano Politykę Rozwoju Sztucznej Inteligencji, która podkreśla potrzebę stworzenia formalnych ram zarządzania danymi oraz uwzględnienia kwestii etycznych i prawnych związanych z rozwojem SI.

Dlaczego to nie działa (wystarczająco)?

  1. Zbyt wolny proces legislacyjny
    – Technologia rozwija się szybciej niż prawo, które nie nadąża za realiami.

  2. Trudność w egzekwowaniu przepisów
    – Brakuje odpowiednich narzędzi i zasobów do kontrolowania gigantów technologicznych (np. Meta, Google).

  3. Presja lobbingowa dużych firm
    – Korporacje mają ogromny wpływ na kształt przepisów – osłabiają ich wymowę lub opóźniają wdrożenie.

  4. Brak globalnej spójności
    – Przepisy UE nie mają wpływu na firmy spoza UE, które mogą zbierać dane i testować AI w mniej restrykcyjnych jurysdykcjach.

  5. Techniczne wyzwania
    – Trudno jest prześwietlić „czarne skrzynki” AI – nawet twórcy czasem nie rozumieją, jak algorytm podejmuje decyzje.


Izrael

System Pegasus (NSO Group)

Oficjalnie system do walki z terroryzmem. W praktyce często był wykorzystywany do inwigilacji, co wywołało międzynarodowy skandal. Choć Pegasus nie jest bezpośrednio systemem AI, może współpracować z technologiami sztucznej inteligencji.

  • AI analizuje przechwycone dane, wyszukując wzorce, podejrzane aktywności i sieci kontaktów.

  • Może automatycznie profilować osoby i przewidywać ich działania, wspierając działania operacyjne.

  • W połączeniu z AI Pegasus staje się częścią szerszego ekosystemu nadzoru, obejmującego m.in. rozpoznawanie twarzy i analizę głosu.

  • To przykład, jak nowoczesne technologie mogą być używane zarówno do ochrony, jak i do represji – w zależności od kontekstu i intencji użytkowników.
Pegasus
Zagrożenia związane z integracją narzędzi takich jak Pegasus z systemami AI

Wykorzystanie wojskowe: konflikt izraelsko-palestyński

Izrael opracowuje narzędzie podobne do ChatGPT, które inwigiluje Palestyńczyków.
Armia izraelska tworzy model językowy oparty na sztucznej inteligencji, wykorzystując miliony przechwyconych rozmów Palestyńczyków, co może przyspieszyć proces stawiania zarzutów i aresztowań.


Rosja: „Oczy Kremla”

Rosyjskie władze rozwijają zaawansowany system nadzoru obywateli. Centralnym elementem tego systemu jest SORM – narzędzie umożliwiające służbom bezpieczeństwa, takim jak FSB, przechwytywanie i analizę komunikacji telefonicznej oraz internetowej. Dodatkowo, Rosfinmonitoring monitoruje przepływy finansowe, w tym transakcje kryptowalutowe, integrując dane z różnych instytucji państwowych. Systemy te pozwalają na tworzenie szczegółowych profili obywateli i analizę ich powiązań, co budzi obawy o naruszenie prywatności i potencjalne nadużycia ze strony władz.


Sztuczna inteligencja a bezpieczeństwo: postęp czy zagrożenie?

To pytanie nie ma prostej odpowiedzi. Z jednej strony – szybka identyfikacja zagrożeń, sprawniejsza praca służb i nowe narzędzia prewencji. Z drugiej – koszty społeczne: naruszenie prywatności, utrata anonimowości, ryzyko dyskryminacji i błędnych decyzji podejmowanych przez maszyny.

Kto zyskuje? Władze, korporacje technologiczne, służby bezpieczeństwa.
Kto traci? Obywatele – zwłaszcza ci, którzy są poza centrum decyzyjnym: mniejszości, osoby z rejonów „podwyższonego ryzyka”, czy zwykli ludzie, których dane stały się walutą w cyfrowym świecie.

To opowieść o balansie między ochroną a kontrolą, wygodą a wolnością, technologią a człowiekiem.

Granice inteligentnej inwigilacji

Z rosnącym wykorzystaniem sztucznej inteligencji w przestrzeni publicznej, zwłaszcza w kontekście monitorowania i zapewniania bezpieczeństwa, pojawiają się istotne pytania o granice jej stosowania. Choć technologia ta obiecuje poprawę bezpieczeństwa w miastach poprzez szybsze reagowanie na zagrożenia, wprowadza także ryzyko masowej inwigilacji, która może naruszać podstawowe prawa obywatelskie, w tym prawo do prywatności. Z jednej strony SI może pomóc w prewencji przestępstw, analizując dane w czasie rzeczywistym, a z drugiej strony pozostają wątpliwości, ponieważ algorytmy są być narażone na błędy – prowadzące do niesprawiedliwych oskarżeń czy nadużyć władzy.

W kontekście egzekwowania prawa warto zastanowić się, jakie środki mogą zostać uznane za dopuszczalne, a które mogą stanowić naruszenie granic władzy. Czy automatyczne systemy nadzoru, które analizują ludzkie zachowania, mogą zastąpić człowieka w podejmowaniu decyzji o interwencji, czy powinny pozostać narzędziem wspomagającym (a nie decydującym)? Odpowiedzi na te pytania są kluczowe dla ustalenia, w jaki sposób systemy AI powinny być regulowane, aby chronić równocześnie bezpieczeństwo obywateli i ich prawa.

Pojawia się również wyzwanie związane z analizą danych dotyczących zachowań mieszkańców – czy takie informacje mogą być wykorzystywane bez naruszania prywatności? Warto zadać pytanie, czy systemy predykcyjne, które analizują te zachowania, są w stanie przewidzieć przestępstwa w sposób, który nie prowadzi do dyskryminacji czy naruszenia wolności jednostek. W kontekście miast przyszłości, musimy zastanowić się również, czy kierunek rozwoju technologii monitoringu idzie w stronę, która będzie respektować prawa obywatelskie, czy raczej zmierza ku autorytarnym formom inwigilacji, w których mieszkańcy stają się przedmiotem nieustannego nadzoru.

Ostatecznie, bezpieczeństwo społeczeństwa nie zależy tylko od metryk takich jak statystyki przestępczości, ale również tego, jak definiujemy i chronimy podstawowe wartości: prywatność, prawa obywatelskie i poczucie wolności. Choć technologia może znacząco przyczynić się do poprawy jakości życia w miastach, kluczowe jest, by jej wdrożenie nie prowadziło do nadmiernego ograniczania swobód jednostki.

Etyczne wyzwania miast przyszłości

Miasta przyszłości muszą być nie tylko inteligentne, ale też sprawiedliwe i otwarte. Wprowadzenie AI do monitorowania porządku publicznego wymaga jasnych zasad:

  1. Transparentność i kontrola społeczna – mieszkańcy muszą wiedzieć, jakie dane są zbierane, przez kogo i w jakim celu.

  2. Ochrona prywatności – systemy muszą być projektowane z myślą o minimalizacji inwazyjności i zabezpieczeniach przed nadużyciami.

  3. Algorytmy pod lupą – potrzebujemy niezależnych audytów algorytmów wykorzystywanych do podejmowania decyzji wpływających na życie obywateli.

  4. Prawa człowieka ponad technologię – żadna technologia nie może być usprawiedliwieniem dla łamania podstawowych wolności.


Literatura


5 komentarzy

  1. Mam wrażenie, że to, czy uważamy systemy SI wdrażane do monitorowania obywateli za słuszne czy raczej dystopijne, zależy w dużej mierze od tego, jaki jest nasz stosunek do rządu.
    Prawdą jest jednak to, że chiński rząd przywołuje niewiele pozytywnych skojarzeń, nazywając swój system „Skynet”. „Terminator” to ulubiony film twórcy tego systemu[1] Dialog z przywołanego źródła:

    „`
    Reporter: So in the „Terminator” Skynet […] reigns down death to milions of people. But in China, Skynet is good
    Software Developer: Yeah, that’s the difference
    „`

    To, co rzuca się w oczy, to nieświadomość deweloperów, tworzących te systemy, z tego, jak mocno nieetyczne mogą być ich twory. Tak samo adresaci tych systemów w pewnym momencie popadają w zobojętnienie — skoro przyzwyczailiśmy się do kamer na ulicy czy regularnych wycieków danych, to czy czyni nam różnicę, że pewnego dnia zostaniemy oznaczeni jako „podejrzana/y” przez system SI? Zamiast smutnych panów w garniturach, Józef K. zobaczy na swoim komputerze ekran z wesołym monitem, że został zatrzymany.[2]

    Z mojego punktu widzenia, sami kręcimy sobie cyfrowy bicz. Początek artykułu o potencjalnych zaletach nie przekonała mnie; brzmi jak typowa propagandowa mowa. To co przeraża, to zakres używania i bezradnosć rządów w próbach opanowania tego.

    Czy istnieją sposoby na powstrzymanie takich zastosowań AI?

    [1] https://youtu.be/jZjmlJPJgug?si=wiz5PvMeGlE-k3Lz&t=420
    [2] https://v.wpimg.pl/OTQuanBlYDUwFxddbRdtIHNPQwcrTmN2JFdbTG1VfGwpQFNWbQVhIyFbEQJtDWAyfh8RCyVDfGVmQ1VBNQU9ISJYEw8sHyA5JhQTC28OPTs_HBICIxtiPz4YDhwtGzw_OCpXWHIUe21lWwseJwttKQ

    • Tak, początek artykułu to świadoma ironia nawiązująca do propagandowej mowy (swoją drogą, ciekawe, czy ChatGPT zdawał sobie z tego sprawę, kiedy poprosiłam go, żeby wygenerował obrazek). Warto podkreślić, że większość informacji, które mamy, pochodzi z przecieków, raportów sprzed kilku lat albo wyselekcjonowanych materiałów, które pokazują jedynie to, co ma zostać pokazane. A jeśli mówimy o technologiach wojskowych czy wywiadowczych, to tak naprawdę możemy tylko się domyślać, jak zaawansowane są te systemy dziś.

    • W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w podkomisji senackiej w USA https://www.judiciary.senate.gov/committee-activity/hearings/ai-in-criminal-investigations-and-prosecutions, którego lepsze nagranie dostępne jest również na YT https://www.youtube.com/watch?v=wbt6qiL3mq0. W 45 min (YT), prof. Wexler porusza kwestie nierównomierności pomiędzy środkami przeznaczanymi na technologię do ścigania i oskarżania, a tymi które służą do obrony. W innym fragmencie (30 min) jest wywód dr Howard i prof. Wexler na temat konieczności transparentności tych technologii, problemu z 'trade secret privilege’ (również około 1h01). Jest też przykład, co się może dziać, gdy ten przywilej jest zbyt mocno chroniony. Około 47:50 można posłuchać o absudralnym, moim zdaniem, użyciu metod FR przez służby w Kalifornii.

      Na podstawie tego materiału, odpowiadając na pytanie, pewnie są sposoby, ale raczej sprowadzają się one do stawiania twardych wymagań podmiotom dostarczającym takie technologie, do otwartości tych rozwiązań i do tworzenia narzędzi, która pozwalają bronić się tak łatwo, jak łatwo jest oskarżać przy pomocy AI.

  2. Świetny artykuł! Chętnie zobaczyłbym również konkretne metryki ilustrujące wpływ implementacji AI w przytoczonych przykładach.

    • Dzięki za uwagę! Sama też chętnie zobaczyłabym konkretne metryki. Natomiast:
      1. Generalnie nie są publicznie udostępniane w całości, szczególnie jeśli chodzi o systemy wdrażane przez służby państwowe (policję, straż miejską, a tym bardziej wojsko czy systemy wywiadowcze).
      2. Trudno je porównywać między miastami czy krajami — różnice w infrastrukturze, przepisach prawnych i kontekst kulturowy mają duży wpływ na wyniki — interpretacja mogłaby okazać się trudniejsza niż się wydaje.

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w…

  2. Tak, początek artykułu to świadoma ironia nawiązująca do propagandowej mowy (swoją drogą, ciekawe, czy ChatGPT zdawał sobie z tego sprawę,…

  3. Dzięki za uwagę! Sama też chętnie zobaczyłabym konkretne metryki. Natomiast: 1. Generalnie nie są publicznie udostępniane w całości, szczególnie jeśli…