{"id":9233,"date":"2026-04-20T20:20:31","date_gmt":"2026-04-20T20:20:31","guid":{"rendered":"https:\/\/architeles.eu\/ethics\/?p=9233"},"modified":"2026-04-20T20:22:52","modified_gmt":"2026-04-20T20:22:52","slug":"9233","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2026\/04\/20\/9233\/","title":{"rendered":"\u015alepa \ud83d\udc40 sprawiedliwo\u015b\u0107 czy zaprogramowane uprzedzenia? Bias w systemach AI wymiaru sprawiedliwo\u015bci."},"content":{"rendered":"<p><strong>Wyobra\u017a sobie, \u017ce o tym, czy trafisz za kratki, decyduje nie cz\u0142owiek, lecz algorytm \u2014 oprogramowanie, kt\u00f3rego dzia\u0142ania nie mo\u017cesz sprawdzi\u0107 ani zakwestionowa\u0107. Brzmi jak science fiction? To rzeczywisto\u015b\u0107 ameryka\u0144skich s\u0105d\u00f3w, prokuratur i komisariat\u00f3w policji od ponad dw\u00f3ch dekad. Systemy sztucznej inteligencji takie jak COMPAS, PredPol czy narz\u0119dzia rozpoznawania twarzy wesz\u0142y do wymiaru sprawiedliwo\u015bci pod has\u0142em obiektywizmu i efektywno\u015bci. Tymczasem coraz obszerniejsza literatura naukowa dowodzi, \u017ce algorytmy te powielaj\u0105, a cz\u0119sto wzmacniaj\u0105, systemowe uprzedzenia rasowe, klasowe i p\u0142ciowe \u2014 z daleko id\u0105cymi konsekwencjami dla \u017cycia konkretnych ludzi.<\/strong><\/p>\n<p><!--more--><\/p>\n<h2><\/h2>\n<h2>Obietnica obiektywnego wymiaru sprawiedliwo\u015bci<\/h2>\n<p><span style=\"color: #800000\">Idea<\/span> zast\u0105pienia subiektywnego ludzkiego os\u0105du zimn\u0105 logik\u0105 danych jest stara jak sama statystyka. W kontek\u015bcie wymiaru sprawiedliwo\u015bci przybra\u0142a ona posta\u0107 tzw. narz\u0119dzi oceny ryzyka (<em>risk assessment tools<\/em>) \u2014 algorytm\u00f3w prognozuj\u0105cych prawdopodobie\u0144stwo, \u017ce oskar\u017cony pope\u0142ni kolejne przest\u0119pstwo (<em>recidivism<\/em>). Zwolennicy tych rozwi\u0105za\u0144 wskazuj\u0105 na tzw. <em>hungry judge effect<\/em> \u2014 udokumentowane zjawisko, w kt\u00f3rym decyzje s\u0119dzi\u00f3w o zwolnieniu za kaucj\u0105 s\u0105 statystycznie korzystniejsze tu\u017c po przerwie na lunch ni\u017c bezpo\u015brednio przed ni\u0105 (Danziger i in., 2011, za: COMPAS Wikipedia). Je\u015bli ludzki os\u0105d jest tak podatny na biologiczne i kulturowe zniekszta\u0142cenia, czy nie lepiej powierzy\u0107 decyzje maszynie?<\/p>\n<p><span style=\"color: #99cc00\">Odpowied\u017a<\/span>, kt\u00f3r\u0105 przynosi ostatnia dekada bada\u0144, jest jednoznacznie przecz\u0105ca: algorytm nie jest ani neutralny, ani obiektywny. Jest produktem danych, na kt\u00f3rych go wytrenowano \u2014 a te dane odzwierciedlaj\u0105 historyczne nier\u00f3wno\u015bci. Jak trafnie podsumowuje to \u015brodowisko data science: <em>garbage in, garbage out<\/em> (WEB1). W wymiarze sprawiedliwo\u015bci ta zasada nabiera szczeg\u00f3lnie dramatycznego wymiaru \u2014 bo \u201e\u015bmieci na wyj\u015bciu&#8221; to latami wi\u0119zienia.<\/p>\n<h2>Od COMPAS \ud83e\udded do rozpoznawania twarzy \ud83d\udc67<\/h2>\n<p><span style=\"color: #666699\">Centralnym<\/span> przypadkiem w debacie nad biasem algorytmicznym w s\u0105downictwie jest system <strong>COMPAS<\/strong> (<em>Correctional Offender Management Profiling for Alternative Sanctions<\/em>), stworzony przez firm\u0119 Northpointe w 1998 roku. Punktem zwrotnym sta\u0142 si\u0119 rok 2016, kiedy organizacja dziennikarska ProPublica opublikowa\u0142a raport \u201eMachine Bias&#8221;, opieraj\u0105cy si\u0119 na analizie danych ponad 7 000 oskar\u017conych z hrabstwa Broward na Florydzie. Analiza wykaza\u0142a, \u017ce czarnosk\u00f3rzy oskar\u017ceni byli znacznie cz\u0119\u015bciej ni\u017c biali b\u0142\u0119dnie klasyfikowani jako osoby wysokiego ryzyka, podczas gdy biali oskar\u017ceni byli cz\u0119\u015bciej b\u0142\u0119dnie etykietowani jako osoby niskiego ryzyka<span class=\"inline-flex\" data-state=\"instant-open\" aria-describedby=\"radix-_r_in_\"> <a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/www.propublica.org\/article\/how-we-analyzed-the-compas-recidivism-algorithm\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>ProPublica<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p><span style=\"color: #999999\">Producent<\/span> algorytmu odpar\u0142, \u017ce COMPAS jest r\u00f3wnie dok\u0142adny dla obu grup rasowych \u2014 i z matematycznego punktu widzenia mia\u0142 racj\u0119. Analiza wykaza\u0142a, \u017ce zar\u00f3wno ProPublica, jak i Northpointe mia\u0142y racj\u0119 \u2014 tyle \u017ce odnosi\u0142y si\u0119 do dw\u00f3ch wzajemnie wykluczaj\u0105cych si\u0119 definicji sprawiedliwo\u015bci: pierwsi koncentrowali si\u0119 na wska\u017aniku b\u0142\u0119d\u00f3w klasyfikacji, drudzy na og\u00f3lnej dok\u0142adno\u015bci predykcji <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/en.wikipedia.org\/wiki\/COMPAS_(software)\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Wikipedia<\/sup><\/span><\/span><\/a>.<\/span> Ten paradoks \u2014 znany w literaturze jako <em>impossibility theorem of fairness<\/em> \u2014 pokazuje, \u017ce nie istnieje jedna, matematycznie sp\u00f3jna definicja \u201esprawiedliwego algorytmu&#8221; (Chouldechova, 2017, za: WEB1).<\/p>\n<p><span style=\"color: #ff9900\">Badania<\/span> Dressel i Farida (2018) z Dartmouth College przynios\u0142y kolejny cios dla wizerunku COMPAS: algorytm okaza\u0142 si\u0119 nie by\u0107 dok\u0142adniejszy w prognozowaniu recydywy ni\u017c ochotnicy rekrutowani przez platform\u0119 crowdsourcingow\u0105, niemaj\u0105cy \u017cadnego przeszkolenia w zakresie wymiaru sprawiedliwo\u015bci <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/incidentdatabase.ai\/cite\/40\/\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Artificial Intelligence Incident Database<\/sup><\/span><\/span><\/a>. <\/span>Innymi s\u0142owy, kosztowne, proprietary oprogramowanie nie przewy\u017csza\u0142o zbiorowej intuicji przypadkowych internaut\u00f3w.<\/p>\n<p><span style=\"color: #ff99cc\">Kolejnym<\/span> obszarem s\u0105 systemy <strong>predykcyjnego patrolowania<\/strong> (<em>predictive policing<\/em>). PredPol (obecnie Geolitica) i podobne narz\u0119dzia analizuj\u0105 historyczne dane przest\u0119pcze, by wskazywa\u0107 policji miejsca i czasy podwy\u017cszonego ryzyka. Systemy takie jak PredPol tworz\u0105 \u201emapy predykcyjne&#8221; i s\u0105 pozycjonowane jako efektywne narz\u0119dzia alokacji zasob\u00f3w policji, jednak w praktyce cz\u0119sto wzmacniaj\u0105 istniej\u0105ce uprzedzenia <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/link.springer.com\/article\/10.1007\/s00146-024-02032-9\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Springer<\/sup><\/span><\/span><\/a>.<\/span> Mechanizm jest banalnie prosty: je\u015bli historycznie wi\u0119cej patroli kierowano do dzielnic zamieszkanych przez mniejszo\u015bci, tam te\u017c odnotowywano wi\u0119cej aresztowa\u0144 \u2014 a algorytm, ucz\u0105c si\u0119 na tych danych, wskazuje dok\u0142adnie te same miejsca. Badania Brennan Center wykaza\u0142y siln\u0105 korelacj\u0119 mi\u0119dzy sk\u0142adem rasowym i socjoekonomicznym spo\u0142eczno\u015bci a wska\u017anikami aresztowa\u0144 za wykroczenia <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/www.brennancenter.org\/our-work\/research-reports\/dangers-unregulated-ai-policing\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Brennan Center for Justice<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p><span style=\"color: #ffcc00\">Trzeci<\/span> obszar to <strong>rozpoznawanie twarzy<\/strong> (<em>facial recognition technology, FRT<\/em>). Niedok\u0142adno\u015b\u0107 tych system\u00f3w wobec os\u00f3b o ciemniejszym odcieniu sk\u00f3ry jest dobrze udokumentowana w literaturze \u2014 badania Gender Shades wykaza\u0142y, \u017ce wsp\u00f3\u0142czynniki b\u0142\u0119d\u00f3w mog\u0105 by\u0107 nawet 40 razy wy\u017csze dla ciemnosk\u00f3rych kobiet ni\u017c dla jasnosk\u00f3rych m\u0119\u017cczyzn (Buolamwini i Gebru, 2018). Czarnosk\u00f3rzy stanowi\u0105 co najmniej osiem na dziesi\u0119\u0107 os\u00f3b bezpodstawnie aresztowanych na podstawie b\u0142\u0119dnych wskaza\u0144 systemu rozpoznawania twarzy <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/www.brennancenter.org\/our-work\/research-reports\/dangers-unregulated-ai-policing\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Brennan Center for Justice<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<h2>Jaskrawe przyk\u0142ady i konsekwencje realne<\/h2>\n<p><span style=\"color: #993300\">Statystyki<\/span> nabieraj\u0105 ludzkiego wymiaru, gdy spojrzymy na konkretne przypadki. <strong>Robert Williams<\/strong> z Detroit sta\u0142 si\u0119 pierwsz\u0105 publicznie udokumentowan\u0105 ofiar\u0105 b\u0142\u0119dnego dopasowania przez system rozpoznawania twarzy, kt\u00f3re doprowadzi\u0142o do aresztowania (WEB2). <strong>Porcha Woodruff<\/strong>, b\u0119d\u0105ca w \u00f3smym miesi\u0105cu ci\u0105\u017cy, zosta\u0142a aresztowana za kradzie\u017c samochodu, przes\u0142uchiwana przez 11 godzin w areszcie, zanim prokurator umorzy\u0142 spraw\u0119 z braku dowod\u00f3w <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/innocenceproject.org\/news\/when-artificial-intelligence-gets-it-wrong\/\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Innocence Project<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p><span style=\"color: #008080\">Inny<\/span> przypadek dotyczy <strong>Michaela Williamsa<\/strong> z Chicago: sp\u0119dzi\u0142 niemal rok w areszcie w zwi\u0105zku z morderstwem, mimo braku motywu, \u015bwiadk\u00f3w i fizycznych dowod\u00f3w \u0142\u0105cz\u0105cych go z miejscem zbrodni \u2014 sprawa opiera\u0142a si\u0119 wy\u0142\u0105cznie na alercie systemu ShotSpotter, kt\u00f3ry lokalizuje strza\u0142y na podstawie sieci mikrofon\u00f3w <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/innocenceproject.org\/news\/when-artificial-intelligence-gets-it-wrong\/\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Innocence Project<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p><span style=\"color: #993366\">ShotSpotter<\/span> sam w sobie jest studium przypadku zawodno\u015bci algorytm\u00f3w bezpiecze\u0144stwa. Badanie MacArthur Justice Center obejmuj\u0105ce 21 miesi\u0119cy dzia\u0142ania ShotSpotter w Chicago wykaza\u0142o, \u017ce 89% alert\u00f3w prowadzi\u0142o policj\u0119 do miejsc, gdzie nie stwierdzono przest\u0119pstwa z u\u017cyciem broni, a 86% nie ujawni\u0142o \u017cadnego przest\u0119pstwa w og\u00f3le \u2014 generuj\u0105c oko\u0142o 40 000 bezowocnych interwencji policji <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/dev.to\/rawveg\/ai-surveillance-fails-39b9\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>DEV Community<\/sup><\/span><\/span><\/a>.<\/span> Mimo to Nowy Jork wyda\u0142 od 2015 do 2025 roku 54 miliony dolar\u00f3w na utrzymanie tego systemu i podpisa\u0142 kolejny trzyletni kontrakt na 22 miliony dolar\u00f3w <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/www.salon.com\/2026\/02\/08\/police-departments-embracing-ai-expose-public-safety-as-a-sham\/\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Salon<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p><span style=\"color: #808000\">Osobnym<\/span> problemem jest <strong>nieprzejrzysto\u015b\u0107 algorytm\u00f3w<\/strong> (<em>opacity<\/em>). COMPAS jest oprogramowaniem w\u0142asno\u015bciowym \u2014 jego kod stanowi tajemnic\u0119 handlow\u0105. Og\u00f3lna krytyka stosowania tego rodzaju zastrze\u017conego oprogramowania polega na tym, \u017ce skoro u\u017cywane algorytmy s\u0105 tajemnic\u0105 handlow\u0105, nie mog\u0105 by\u0107 badane przez opini\u0119 publiczn\u0105 ani strony post\u0119powania, co jest opisywane jako naruszenie prawa do rzetelnego procesu <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/en.wikipedia.org\/wiki\/COMPAS_(software)\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Wikipedia<\/sup><\/span><\/span><\/a>.<\/span> Sprawa <em>Loomis v. Wisconsin<\/em> (2016) sta\u0142a si\u0119 precedensem: S\u0105d Najwy\u017cszy stanu Wisconsin orzek\u0142, \u017ce score COMPAS mo\u017ce by\u0107 brany pod uwag\u0119 przy wydawaniu wyroku, ale musz\u0105 mu towarzyszy\u0107 zastrze\u017cenia dotycz\u0105ce ogranicze\u0144 narz\u0119dzia.<\/p>\n<h2>Czy sprawiedliwy algorytm jest mo\u017cliwy?<\/h2>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #0000ff\">Fundamentalne<\/span> pytanie, kt\u00f3re stawia literatura naukowa, brzmi: czy poprawa techniczna algorytm\u00f3w wystarczy, by rozwi\u0105za\u0107 problem biasu? Odpowied\u017a jest niejednoznaczna.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #ff0000\">Cz\u0119\u015b\u0107<\/span> badaczy stoi na stanowisku, \u017ce dok\u0142adniejsze dane i lepiej zaprojektowane modele mog\u0105 zredukowa\u0107 dysproporcje. Analiza danych ProPublica wykaza\u0142a, \u017ce zaproponowana korekta algorytmu zwi\u0119ksza og\u00f3ln\u0105 dok\u0142adno\u015b\u0107 i os\u0142abia antyrasistowski i antym\u0142odzie\u017cowy bias, cho\u0107 nieznacznie zwi\u0119ksza ryzyko zwolnienia oskar\u017conych, kt\u00f3rzy pope\u0142ni\u0105 nowe przest\u0119pstwo przed procesem <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/link.springer.com\/article\/10.1007\/s10506-024-09389-8\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Springer<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #808000\">Radykalnie<\/span> odmienne stanowisko prezentuje Ben Green, profesor Uniwersytetu Michigan: nawet doskonale dok\u0142adny algorytm b\u0119dzie reprodukowa\u0142 bias, je\u015bli system prawny, na kt\u00f3rym si\u0119 opiera, jest sam w sobie niesprawiedliwy. Jak twierdzi Green, perfekcyjna ocena ryzyka mog\u0142aby mie\u0107 paradoksalny efekt nadania wi\u0119kszej legitymizacji polityce, kt\u00f3ra prowadzi do pozbawienia wolno\u015bci, i sprawiania, \u017ce osoby zatrzymane wydaj\u0105 si\u0119 bardziej zas\u0142ugiwa\u0107 na t\u0119 kar\u0119 <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/massivesci.com\/articles\/machine-learning-compas-racism-policing-fairness\/\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Massive Science<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #cc99ff\">Istnieje<\/span> te\u017c problem <strong>automation bias<\/strong> \u2014 ludzkiej sk\u0142onno\u015bci do bezkrytycznego ufania decyzjom maszyny. Badacze i prawnicy ostrzegaj\u0105 przed niebezpieczn\u0105 tendencj\u0105 do bezkrytycznego polegania na wynikach algorytm\u00f3w, w pewnych przypadkach opisuj\u0105c, jak funkcjonariusze traktowali wyniki oprogramowania jako \u201e100% dopasowanie&#8221; <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/www.joneswalker.com\/en\/insights\/blogs\/ai-law-blog\/ai-police-surveillance-bias-the-minority-report-impacting-constitutional-right.html?id=102lqdv\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>Jones Walker LLP<\/sup><\/span><\/span><\/a>.<\/span> Gdy algorytm staje si\u0119 autorytetem, s\u0119dzia nie podejmuje samodzielnej decyzji \u2014 jedynie sankcjonuje decyzj\u0119 kodu.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #33cccc\">Warto<\/span> te\u017c zada\u0107 pytanie o <strong>odpowiedzialno\u015b\u0107<\/strong>. Gdy algorytm wydaje b\u0142\u0119dn\u0105 decyzj\u0119 prowadz\u0105c\u0105 do krzywdy cz\u0142owieka \u2014 kto ponosi odpowiedzialno\u015b\u0107? Producent oprogramowania, kt\u00f3ry ukrywa kod za tajemnic\u0105 handlow\u0105? S\u0119dzia, kt\u00f3ry powo\u0142a\u0142 si\u0119 na score nie rozumiej\u0105c jego mechanizmu? S\u0105d, kt\u00f3ry go dopu\u015bci\u0142? Crawford i Schultz w raporcie \u201eAI Systems as State Actors&#8221; nazywaj\u0105 t\u0119 sytuacj\u0119 \u201eluk\u0105 odpowiedzialno\u015bci&#8221;, kt\u00f3ra mo\u017ce prowadzi\u0107 zar\u00f3wno do odpowiedzialno\u015bci pa\u0144stwa, jak i jej unikania przez prywatnych dostawc\u00f3w technologii. <span class=\"inline-flex\" data-state=\"closed\"><a class=\"group\/tag relative h-[18px] rounded-full inline-flex items-center overflow-hidden -translate-y-px cursor-pointer\" href=\"https:\/\/daily.jstor.org\/what-happens-when-police-use-ai-to-predict-and-prevent-crime\/\" target=\"_blank\" rel=\"noopener\"><span class=\"relative transition-colors h-full max-w-[180px] overflow-hidden px-1.5 inline-flex items-center font-small rounded-full border-0.5 border-border-300 bg-bg-200 group-hover\/tag:bg-accent-900 group-hover\/tag:border-accent-100\/60\"><span class=\"text-nowrap text-text-300 break-all truncate font-normal group-hover\/tag:text-text-200\"><sup>JSTOR<\/sup><\/span><\/span><\/a>.<\/span><\/p>\n<h2>Prawo do wiedzy o algorytmie<\/h2>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #666699\">Wymiar<\/span> sprawiedliwo\u015bci jest instytucj\u0105, kt\u00f3rej legitymizacja zale\u017cy od zaufania spo\u0142ecznego. Zaufanie to buduje si\u0119 m.in. przez przejrzysto\u015b\u0107 procedur \u2014 prawo do wiedzy, dlaczego podj\u0119to okre\u015blon\u0105 decyzj\u0119, i prawo do jej zakwestionowania. Algorytmy czarnej skrzynki podwa\u017caj\u0105 oba te filary.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #800080\">Nie<\/span> oznacza to, \u017ce AI nie ma miejsca w s\u0105downictwie. Oznacza to, \u017ce jej wdro\u017cenie wymaga: obowi\u0105zkowych audyt\u00f3w pod k\u0105tem biasu przed dopuszczeniem do u\u017cytku, transparentno\u015bci kodu wobec stron post\u0119powania, mechanizm\u00f3w odwo\u0142awczych uwzgl\u0119dniaj\u0105cych decyzje algorytmiczne oraz regulacji okre\u015blaj\u0105cych, kt\u00f3re decyzje w og\u00f3le nie mog\u0105 by\u0107 delegowane do maszyny.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\"><span style=\"color: #33cccc\">Debata<\/span> nad COMPAS, ShotSpotter i rozpoznawaniem twarzy to w istocie debata o tym, jakie warto\u015bci chcemy wbudowa\u0107 w nasz\u0105 technologi\u0119 \u2014 i czy zgadzamy si\u0119, by prawa jednostki by\u0142y wa\u017cone przez oprogramowanie, za kt\u00f3re nikt nie odpowiada.<\/p>\n<blockquote><p>\u201eThe underlying problem here is that we have racialized hierarchies of what crime means and who is at 'risk&#8217; of committing those crimes, combined with a policy that punishes those at high risk with the loss of liberty. Even if risk assessments could attain some type of perfect prediction, that wouldn&#8217;t solve the problem.&#8221; \u2014 Ben Green, profesor Uniwersytetu Michigan (cyt. za WEB1)<\/p><\/blockquote>\n<p>&nbsp;<\/p>\n<h2>Literatura<\/h2>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">Buolamwini, J., &amp; Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. <em>Proceedings of Machine Learning Research<\/em>, <em>81<\/em>, 1\u201315.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">Dressel, J., &amp; Farid, H. (2018). The accuracy, fairness, and limits of predicting recidivism. <em>Science Advances<\/em>, <em>4<\/em>(1), eaao5580. <a class=\"underline underline underline-offset-2 decoration-1 decoration-current\/40 hover:decoration-current focus:decoration-current\" href=\"https:\/\/doi.org\/10.1126\/sciadv.aao5580\">https:\/\/doi.org\/10.1126\/sciadv.aao5580<\/a><\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">Freeman, K. (2016). Algorithmic injustice: How the Wisconsin Supreme Court failed to protect due process rights in <em>State v. Loomis<\/em>. <em>North Carolina Journal of Law &amp; Technology<\/em>, <em>18<\/em>(5), 75\u2013106.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">Scherrer, A., Sch\u00f6nberger, A., &amp; Fuentes, M. (2024). Code is law: how COMPAS affects the way the judiciary handles the risk of recidivism. <em>Artificial Intelligence and Law<\/em>. <a class=\"underline underline underline-offset-2 decoration-1 decoration-current\/40 hover:decoration-current focus:decoration-current\" href=\"https:\/\/doi.org\/10.1007\/s10506-024-09389-8\">https:\/\/doi.org\/10.1007\/s10506-024-09389-8<\/a><\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">Washington, A. (2019). How to argue with an algorithm: Lessons from the COMPAS-ProPublica debate. <em>Colorado Technology Law Journal<\/em>, <em>17<\/em>(1), 131\u2013160.<\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">WEB1: Can the criminal justice system&#8217;s AI ever be truly fair? \u2014 Massive Science <a class=\"underline underline underline-offset-2 decoration-1 decoration-current\/40 hover:decoration-current focus:decoration-current\" href=\"https:\/\/massivesci.com\/articles\/machine-learning-compas-racism-policing-fairness\/\">https:\/\/massivesci.com\/articles\/machine-learning-compas-racism-policing-fairness\/<\/a><\/p>\n<p class=\"font-claude-response-body break-words whitespace-normal leading-[1.7]\">WEB2: When Artificial Intelligence Gets It Wrong \u2014 Innocence Project <a class=\"underline underline underline-offset-2 decoration-1 decoration-current\/40 hover:decoration-current focus:decoration-current\" href=\"https:\/\/innocenceproject.org\/news\/when-artificial-intelligence-gets-it-wrong\/\">https:\/\/innocenceproject.org\/news\/when-artificial-intelligence-gets-it-wrong\/<\/a><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wyobra\u017a sobie, \u017ce o tym, czy trafisz za kratki, decyduje nie cz\u0142owiek, lecz algorytm \u2014 oprogramowanie, kt\u00f3rego dzia\u0142ania nie mo\u017cesz sprawdzi\u0107 ani zakwestionowa\u0107. Brzmi jak science fiction? To rzeczywisto\u015b\u0107 ameryka\u0144skich s\u0105d\u00f3w, prokuratur i komisariat\u00f3w policji od ponad dw\u00f3ch dekad. Systemy sztucznej inteligencji takie jak COMPAS, PredPol czy narz\u0119dzia rozpoznawania twarzy wesz\u0142y do wymiaru sprawiedliwo\u015bci pod [&hellip;]<\/p>\n","protected":false},"author":348,"featured_media":9261,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[597],"tags":[15,627,628,12,13,20,138],"class_list":["post-9233","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-agh-2025-26","tag-ai","tag-bias-algorytmiczny","tag-compas","tag-etyka","tag-spoleczenstwo","tag-sztuczna-inteligencja","tag-wymiar-sprawiedliwosci"],"jetpack_featured_media_url":"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2026\/04\/a1150-metallica-and-justice-black-vinyl-lp-879.jpg","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/9233","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/348"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=9233"}],"version-history":[{"count":20,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/9233\/revisions"}],"predecessor-version":[{"id":9270,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/9233\/revisions\/9270"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media\/9261"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=9233"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=9233"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=9233"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}