Współczesne systemy oparte na danych – od sensorów miejskich po modele sztucznej inteligencji – nie tylko opisują rzeczywistość, ale aktywnie ją kształtują. To, co mierzymy, jakie dane zbieramy i jak je interpretujemy, nie jest neutralne. Wybory te odzwierciedlają konkretne interesy, wartości i struktury władzy. W efekcie infrastruktura pomiaru staje się narzędziem definiowania problemów społecznych, a w skrajnych przypadkach – także subtelnej, rozproszonej formy nadzoru i kontroli społeczeństwa, przywodzącej na myśl wizje znane z literatury dystopijnej.
Dane czyli „obiektywna” reprezentacja rzeczywistości
Dane, rozumiane jako cyfrowa reprezentacja rzeczywistości, w dyskursie publicznym często przedstawiane są jako obiektywne i neutralne jej odzwierciedlenie. Wraz z rozwojem narzędzi Data Science i sztucznej inteligencji przekonanie to uległo wzmocnieniu – algorytmy analizujące ogromne zbiory danych wydają się oferować „czyste”, wolne od ludzkich uprzedzeń wnioski. Jednak, jak zauważa wielu badaczy, dane nie są po prostu „dane” (given), lecz „tworzone” (made). Proces ich powstawania jest głęboko osadzony w kontekstach społecznych, politycznych i technologicznych.
Geoffrey Bowker i Susan Leigh Star w pracy Sorting Things Out: Classification and Its Consequences pokazują, że systemy klasyfikacji i infrastruktury informacyjne nie są neutralnymi narzędziami porządkowania świata. Każda kategoria – np. „bezrobotny”, „przestępstwo”, „zanieczyszczenie” – jest wynikiem konkretnych decyzji: gdzie postawić granice, co wliczyć, a co pominąć. W efekcie takie systemy nie tylko opisują rzeczywistość, ale ją współtworzą, utrwalając określone sposoby myślenia o społeczeństwie. Podobnie Rob Kitchin (2014) w The Data Revolution podkreśla, że dane nie istnieją „same z siebie” – są zawsze efektem wyborów: co zbierać, jak to mierzyć, w jaki sposób łączyć dane w większe zbiory i jak je interpretować.
Dobrym przykładem jest kwestia ustalania ograniczeń prędkości na autostradzie. Jeśli jako główną metrykę przyjmiemy czas przejazdu między miastem A i B, wówczas „racjonalnym” wnioskiem będzie podnoszenie limitu prędkości – im szybciej, tym efektywniej. Jeśli jednak skupimy się na liczbie wypadków oraz prawdopodobieństwie ich przeżycia, otrzymamy wniosek przeciwny: ograniczenie prędkości powinno być niższe, aby zwiększyć bezpieczeństwo.
W obu przypadkach operujemy na „obiektywnych” danych, jednak dochodzimy do sprzecznych rekomendacji. Różnica nie wynika z samych danych, lecz z przyjętej perspektywy i tego, co uznajemy za istotny problem. To pokazuje, że dane nie są neutralnym odbiciem rzeczywistości, lecz jej interpretacją – ukształtowaną przez wcześniejsze decyzje, wartości i cele.
Infrastruktura pomiaru: co i dlaczego mierzymy?

Systemy monitoringu miejskiego, czujniki jakości powietrza, kamery liczące pieszych czy aplikacje śledzące mobilność mieszkańców – wszystkie te rozwiązania wpisują się w ideę „smart city”. Ich deklarowanym celem jest optymalizacja zarządzania miastem poprzez wykorzystanie danych w czasie rzeczywistym.
Jednak decyzje o tym, co mierzyć, nie są neutralne ani oczywiste. Jak zauważa Shannon Mattern (2017) w artykule A City Is Not a Computer, technologie smart city koncentrują się przede wszystkim na tym, co łatwe do uchwycenia w formie liczbowej: przepływach ruchu, zużyciu energii czy poziomach zanieczyszczeń. Są to zjawiska, które można stosunkowo prosto zmierzyć, przetworzyć i przedstawić w postaci wykresów czy wskaźników.
Problem polega na tym, że wiele kluczowych aspektów życia miejskiego nie daje się tak łatwo skwantyfikować. Poczucie bezpieczeństwa, jakość relacji społecznych, dostępność przestrzeni publicznych czy subiektywne doświadczenie mieszkańców pozostają w dużej mierze poza zasięgiem takich systemów. Nie dlatego, że są mniej istotne, ale dlatego, że trudniej je zmierzyć.
W efekcie dochodzi do przesunięcia uwagi: to, co jest mierzalne, zaczyna być traktowane jako najważniejsze. Polityki miejskie coraz częściej odpowiadają na wskaźniki, a nie na pełne spektrum doświadczeń mieszkańców. Jeśli system pokazuje, że ruch samochodowy jest niewystarczająco płynny, to staje się to „problemem”, który należy rozwiązać – nawet jeśli oznacza to pogorszenie warunków dla pieszych czy rowerzystów.
Można więc powiedzieć, że infrastruktura pomiaru nie tylko opisuje miasto, ale aktywnie je „przedefiniowuje”: zamienia złożoną rzeczywistość społeczną w zestaw wskaźników, które następnie kierują decyzjami politycznymi. To, czego nie ma w danych, bardzo łatwo przestaje istnieć także w procesie decyzyjnym.

Dobrym, współczesnym przykładem takiego mechanizmu jest wprowadzenie Strefy Czystego Transportu w Krakowie. Od 1 stycznia 2026 roku wjazd do dużej części miasta jest uzależniony od spełniania określonych norm emisji spalin przez pojazdy . System ten opiera się na konkretnych danych: poziomach zanieczyszczeń powietrza, normach emisji EURO oraz statystykach dotyczących wpływu transportu na jakość środowiska.
Na ich podstawie zdefiniowano „problem” jako nadmierną emisję spalin i zaprojektowano rozwiązanie polegające na ograniczeniu wjazdu dla części pojazdów. Jednak już na tym etapie widoczny jest selektywny charakter pomiaru. System koncentruje się przede wszystkim na emisjach, pomijając inne możliwe kryteria – takie jak dostępność transportu publicznego, sytuacja ekonomiczna mieszkańców czy nierówności w dostępie do mobilności.
Co więcej, sposób implementacji SCT pokazuje, że dane nie tylko opisują rzeczywistość, ale także ją normują. Na podstawie określonych wskaźników ustala się, które pojazdy są „akceptowalne”, a które nie, co bezpośrednio przekłada się na codzienne praktyki mieszkańców. W tym sensie infrastruktura pomiaru przekształca się w narzędzie regulacji zachowań społecznych – wskazując nie tylko, jaki jest problem, ale także jakie działania są uznawane za właściwe.
Od smart city do „miasta nadzorowanego”: echo Orwella

W tym miejscu warto odwołać się do klasycznej wizji nadzoru przedstawionej przez George’a Orwella w powieści Rok 1984. Orwell opisywał społeczeństwo, w którym wszechobecna obserwacja – uosabiana przez figurę Wielkiego Brata – służyła kontroli obywateli i tłumieniu sprzeciwu. Nadzór był tam jawny, scentralizowany i bezpośrednio powiązany z aparatem państwa.
Choć współczesne systemy monitoringu miejskiego znacząco różnią się od tej totalitarnej wizji, istnieją istotne podobieństwa na poziomie logiki działania. Dzisiejszy nadzór nie opiera się już na jednym centrum władzy, lecz ma charakter:
- zdecentralizowany,
- zautomatyzowany,
- uzasadniany efektywnością i bezpieczeństwem,
- w dużej mierze niewidoczny w codziennym doświadczeniu.
Nie oznacza to jednak jego słabości – przeciwnie. Jego skuteczność polega właśnie na tym, że nie jest postrzegany jako narzędzie kontroli, lecz jako neutralna infrastruktura technologiczna.
Shoshana Zuboff (2019) w koncepcji „kapitalizmu nadzoru” (The Age of Surveillance Capitalism) wskazuje, że dane o zachowaniach użytkowników są zbierane, analizowane i monetyzowane nie tylko przez państwa, ale przede wszystkim przez korporacje technologiczne. W tym sensie współczesna inwigilacja nie ma jednego centrum – jest rozproszona i wpisana w codzienne funkcjonowanie infrastruktury cyfrowej, od aplikacji mobilnych po systemy zarządzania miastem.
Różnica między światem Orwella a współczesnością polega więc nie na braku nadzoru, lecz na jego transformacji. Zamiast jawnej kontroli politycznej mamy do czynienia z subtelnymi, często niewidzialnymi mechanizmami wpływania na zachowanie – poprzez rekomendacje, klasyfikacje, ograniczenia dostępu czy architekturę wyboru. Nadzór przestaje być wyłącznie represyjny, a zaczyna być „produktywny”: nie tylko ogranicza, ale także kształtuje działania jednostek.
W tym sensie pojawia się pytanie: czy Orwell rzeczywiście się mylił, czy raczej trafnie uchwycił pewną logikę władzy, która dziś realizuje się w innej, bardziej rozproszonej formie?
Szczególnie wyraźnym przykładem tej logiki są systemy nadzoru rozwijane w Chinach, gdzie technologie monitoringu miejskiego, rozpoznawania twarzy oraz analizy danych są szeroko wykorzystywane w zarządzaniu społeczeństwem. Projekty takie jak system „social credit” łączą dane z różnych źródeł – od aktywności finansowej po zachowania społeczne – tworząc mechanizmy oceny obywateli, które mogą wpływać na ich dostęp do usług, mobilność czy możliwości ekonomiczne.

Przykład ten często przedstawiany jest jako skrajna, państwowa forma nadzoru, bliższa wizji Orwella. Warto jednak zauważyć, że różnica między tym modelem a rozwiązaniami stosowanymi w krajach zachodnich ma charakter raczej stopnia niż zasady. Podobne mechanizmy – zbieranie danych, profilowanie użytkowników, przewidywanie zachowań – są obecne także w systemach komercyjnych, choć zwykle działają w sposób mniej widoczny i pod innym uzasadnieniem.
Chiński przypadek uwidacznia więc pewien potencjał wpisany w infrastrukturę danych: możliwość przejścia od pomiaru i analizy do bezpośredniej regulacji zachowań. Nie jest to odrębna logika, lecz raczej jej bardziej jawna i intensywna realizacja.
Dane i władza: perspektywa krytyczna
W tym kontekście szczególnie użyteczna staje się perspektywa Michela Foucaulta, który wskazywał, że wiedza i władza są ze sobą nierozerwalnie powiązane. Władza nie działa jedynie poprzez zakazy i przymus, lecz poprzez produkcję wiedzy o społeczeństwie – jego klasyfikowanie, mierzenie i normalizowanie.
Współczesne systemy danych można więc rozumieć jako narzędzia „władzy poprzez pomiar”: to, co zostaje zmierzone i skategoryzowane, staje się podstawą do zarządzania populacją. Dane nie tylko opisują rzeczywistość, ale wyznaczają normy – określają, co jest „normalne”, „ryzykowne” czy „pożądane”.
Kate Crawford w książce Atlas of AI (2021) rozwija tę perspektywę, pokazując, że systemy sztucznej inteligencji opierają się na danych, które odzwierciedlają istniejące nierówności społeczne. W efekcie AI nie tylko je reprodukuje, ale często także wzmacnia – nadając im pozór obiektywności i naukowej legitymizacji.
Połączenie infrastruktury monitoringu z systemami klasyfikacji i predykcji prowadzi do powstania nowego modelu zarządzania społeczeństwem. Obserwacja, analiza i klasyfikacja stają się podstawą podejmowania decyzji – często bez udziału, a nawet świadomości osób, których te decyzje dotyczą.
W tym sensie współczesne „miasto inteligentne” może być jednocześnie „miastem nadzorowanym”: przestrzenią, w której technologia nie tylko optymalizuje procesy, ale także subtelnie reguluje zachowania mieszkańców. Echo Orwella nie polega więc na prostym powtórzeniu jego wizji, lecz na jej transformacji w formę bardziej rozproszoną, mniej widoczną, ale potencjalnie równie wpływową.
Połączenie infrastruktury monitoringu z systemami klasyfikacji i predykcji prowadzi do powstania nowego modelu zarządzania społeczeństwem. Obserwacja, analiza i klasyfikacja stają się podstawą podejmowania decyzji – często bez udziału, a nawet świadomości osób, których te decyzje dotyczą.

Dobrym przykładem są przypadki błędnych identyfikacji w systemach rozpoznawania twarzy wykorzystywanych przez organy ścigania. W Stanach Zjednoczonych odnotowano sytuacje, w których osoby były niesłusznie zatrzymywane na podstawie wskazań systemów AI. W jednym z takich przypadków Angela Lipps, obywatelka Tennessee została błędnie powiązana z przestępstwem które wydarzyło się w kilka stanów dalej na podstawie analizy obrazu przez system rozpoznawania twarzy, mimo że nigdy nie przebywała w miejscu zdarzenia. Została zatrzymana i spędziła ponad trzy miesiące w areszcie, zanim przedstawiono dowody potwierdzające jej niewinność. Artykuł dostępny tutaj.
Tego typu sytuacje pokazują, że dane i algorytmy nie są jedynie narzędziami wspomagającymi decyzje, lecz mogą pełnić funkcję de facto decyzyjną. Co więcej, ich „obiektywny” charakter często utrudnia podważenie ich wyników – zarówno przez instytucje, jak i przez same osoby dotknięte ich działaniem. W ten sposób technologia zyskuje szczególną formę władzy: zdolność do klasyfikowania jednostek i przypisywania im określonych statusów, które mają bezpośrednie konsekwencje społeczne i prawne.
Liczenie populacji: kto się liczy, a kto jest liczony?
Systemy liczenia populacji – od spisów powszechnych po dane z telefonów komórkowych – stanowią podstawę wielu decyzji politycznych i ekonomicznych. Jednak również one są obarczone ograniczeniami i uprzedzeniami.
Virginia Eubanks w Automating Inequality (2018) pokazuje, że systemy oparte na danych często dyskryminują najbardziej marginalizowane grupy społeczne. Osoby bezdomne, migranci czy osoby funkcjonujące poza formalnymi strukturami państwa bywają niedoreprezentowane lub przedstawiane w sposób uproszczony.
Co więcej, systemy te mogą pełnić funkcję narzędzi nadzoru – szczególnie wobec osób korzystających z pomocy społecznej, których aktywność jest intensywnie monitorowana i analizowana.
W tym sensie „bycie policzonym” nie zawsze oznacza włączenie do wspólnoty politycznej. Może oznaczać również przypisanie do kategorii ryzyka, kontroli lub zależności – a więc włączenie warunkowe, obwarowane nadzorem.
Krytyka „dataizmu” i iluzji obiektywności
Współczesna kultura coraz częściej przypisuje danym szczególny status epistemologiczny – traktuje je jako bardziej wiarygodne niż inne formy wiedzy. Liczby, wykresy i modele wydają się oferować bezpośredni dostęp do rzeczywistości, wolny od subiektywnych opinii czy ideologii. Ten sposób myślenia bywa określany mianem „dataizmu” i opiera się na przekonaniu, że odpowiednia ilość danych oraz mocy obliczeniowej pozwoli rozwiązać większość problemów społecznych.
Jednak, jak wskazują danah boyd i Kate Crawford (2012), duże zbiory danych nie eliminują uprzedzeń – mogą je wręcz wzmacniać. Dane nie są neutralnym „odciskiem” rzeczywistości, lecz efektem konkretnych decyzji: co mierzyć, jak to mierzyć i jak interpretować wyniki. Oznacza to, że nawet najbardziej zaawansowane systemy analityczne operują na materiale, który już na poziomie zbierania i klasyfikacji zawiera określone założenia i wartości.
Co więcej, wiara w obiektywność danych często prowadzi do naturalizacji ich wyników. Jeśli decyzja jest „oparta na danych”, zyskuje status decyzji racjonalnej i trudnej do zakwestionowania. W praktyce może to ograniczać debatę publiczną – zamiast dyskutować o tym, co jest sprawiedliwe lub społecznie pożądane, skupiamy się na tym, co jest mierzalne i efektywne.
W ten sposób rozwija się technokratyczny model zarządzania, w którym decyzje podejmowane są na podstawie wskaźników i modeli, a nie poprzez deliberację społeczną. Pytania polityczne – „dla kogo działa system?”, „kto ponosi koszty?”, „czy rozwiązanie jest sprawiedliwe?” – zostają zastąpione pytaniami technicznymi: „co działa najefektywniej?”. To przesunięcie nie eliminuje polityki, lecz ją ukrywa.
W tym kontekście wizja Orwella nabiera nowego znaczenia. Nie chodzi już o bezpośrednią, widoczną kontrolę, lecz o sytuację, w której kontrola nad danymi i sposobami ich interpretacji ogranicza zakres możliwych decyzji. Władza działa tu nie poprzez zakazy, lecz poprzez ramowanie rzeczywistości – definiowanie, co jest widoczne, mierzalne i uznawane za racjonalne.

Infrastruktura danych jako pole konfliktu
Analizując powyższe perspektywy, można zauważyć wspólny wątek: infrastruktura danych nie jest neutralnym narzędziem, lecz polem konfliktu między różnymi interesami, wartościami i wizjami społeczeństwa. Nie chodzi tu jedynie o to, jak wykorzystujemy dane, ale o to, jakie rzeczywistości dzięki nim w ogóle stają się możliwe do zobaczenia i zarządzania.
Z jednej strony mamy obietnicę efektywności, optymalizacji i racjonalnego zarządzania. Systemy oparte na danych pozwalają szybciej reagować na problemy, lepiej planować zasoby i przewidywać przyszłe scenariusze. W tym sensie stanowią one potężne narzędzie organizacji współczesnych społeczeństw, szczególnie w kontekście złożonych wyzwań, takich jak urbanizacja czy zmiany klimatyczne.
Z drugiej strony, ta sama infrastruktura wiąże się z ryzykiem nadzoru, wykluczenia oraz redukcji złożonych zjawisk społecznych do uproszczonych wskaźników. To, co nie daje się łatwo zmierzyć – doświadczenia mieszkańców, relacje społeczne, nierówności lokalne – może zostać pominięte lub zredukowane do nieadekwatnych kategorii. W efekcie decyzje podejmowane „na podstawie danych” mogą być jednocześnie precyzyjne i głęboko ograniczone.
Między paranoją a obojętnością
W debacie publicznej łatwo popaść w dwie skrajności: albo uznać, że żyjemy już w pełni „orwellowskim” społeczeństwie nadzoru, albo całkowicie zignorować problem, traktując technologie jako neutralne i nieproblematyczne narzędzia. Obie postawy są kuszące, ponieważ upraszczają rzeczywistość – pozwalają albo ją dramatyzować, albo ją zracjonalizować.
Jednak obie są niewystarczające. Z jednej strony nadmierne odwoływanie się do Orwella może prowadzić do uproszczeń i ignorowania realnych różnic między systemami politycznymi oraz formami władzy. Współczesne systemy nadzoru rzadko mają charakter jawny i scentralizowany – częściej są rozproszone, częściowo prywatne i ukryte w codziennych technologiach. Z drugiej strony bezkrytyczna akceptacja technologii utrudnia dostrzeżenie ich społecznych konsekwencji, szczególnie wtedy, gdy są one przedstawiane jako „neutralne” lub „nieuniknione”.
Kluczowym wyzwaniem nie jest wybór między „technologicznym optymizmem” a „dystopijną krytyką”, lecz rozwijanie zdolności do krytycznego uczestnictwa w świecie opartym na danych. Oznacza to zarówno umiejętność zadawania pytań o sposób działania systemów, jak i domaganie się ich przejrzystości, odpowiedzialności oraz demokratycznej kontroli.
Literatura
- Bowker, G. C., & Star, S. L. (1999). Sorting Things Out: Classification and Its Consequences. MIT Press.
- Kitchin, R. (2014). The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. Sage.
- Gabrys, J. (2016). Program Earth: Environmental Sensing Technology and the Making of a Computational Planet. University of Minnesota Press.
- Ottinger, G. (2010). “Buckets of Resistance: Standards and the Effectiveness of Citizen Science.” Science, Technology, & Human Values.
- Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
- boyd, d., & Crawford, K. (2012). Critical Questions for Big Data. Information, Communication & Society.
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
- Creemers, R. (2018). “China’s Social Credit System: An Evolving Practice of Control.” SSRN / Leiden University.
- People.com (2024) – sprawa Angeli Lipps