Home » Socjologia UJ 2025/26 » Etyczne aspekty nadzoru wizualnego – postawy społeczne wobec monitoringu opartego na sztucznej inteligencji. Badanie, ile wolności jednostki są skłonne poświęcić w zamian za możliwość monitorowania i klasyfikowania ich zachowań przez systemy AI.

Etyczne aspekty nadzoru wizualnego – postawy społeczne wobec monitoringu opartego na sztucznej inteligencji. Badanie, ile wolności jednostki są skłonne poświęcić w zamian za możliwość monitorowania i klasyfikowania ich zachowań przez systemy AI.

Spread the love

Nadzór wizualny oparty na sztucznej inteligencji (dalej: AI) budzi w społeczeństwie coraz więcej kontrowersji. Dzięki uczeniu maszynowemu systemy monitoringu potrafią nie tylko rejestrować obraz, ale także rozpoznawać twarze, analizować emocje czy zachowania ludzi. Z jednej strony technologia ta może poprawić bezpieczeństwo (np. wykrywać zagrożenia kryminalne), z drugiej – wymusza kompromis między prywatnością a bezpieczeństwem. W odpowiedzi na rosnące zastosowanie AI w monitoringu, UE wprowadza propozycje regulacji – m.in. zakaz systemów rozpoznawania twarzy klasyfikujących ludzi.

Badania społeczne potwierdziły, że wizualny nadzór jest w wielu społeczeństwach traktowany raczej pozytywnie. W badaniu Fundacji Panoptykon (2013) aż 76% Polaków deklarowało poparcie dla kamer umożliwiających identyfikację osób, a jedynie ~21% sprzeciwiało się takim rozwiązaniom. Środowisko akademickie i organizacje pozarządowe podkreślały jednak, że częste przyzwolenie społeczne bywa powierzchowne – wielu użytkowników kamer nie zna mechanizmów ochrony prywatności i ma małą świadomość zagrożeń związanych z przetwarzaniem wrażliwych danych1. Wprowadzenie nowych rozwiązań AI (np. automatycznego rozpoznawania twarzy czy nastroju) wymusza rewizję tych postaw.  

W niniejszym artykule omawiamy postawy społeczne, ze szczególnym uwzględnieniem pokolenia Z (18–29 lat) w Polsce, wobec etycznych aspektów nadzoru AI. Analizujemy wyniki dostępnych badań oraz wnioski z autorskiego badania ankietowego. Najpierw jednak zaczniemy od krótkiego wstępu teoretycznego.

Kapitalizm inwigilacji według Zuboff 

Shoshana Zuboff: The Age of Surveillance Capitalism | Wellesley College

Pojęcie kapitalizmu inwigilacji (surveillance capitalism) zostało wprowadzone przez Shoshanę Zuboff i szczegółowo opisane w jej książce The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (2019). Autorka definiuje kapitalizm inwigilacji jako nowy porządek ekonomiczny, w którym ludzkie doświadczenie staje się surowcem wykorzystywanym do produkcji danych behawioralnych. Dane te, określane przez Zuboff mianem nadwyżki behawioralnej , są zbierane ponad to, co jest niezbędne do świadczenia danej usługi, a następnie przetwarzane przez algorytmy w celu tworzenia produktów predykcyjnych, sprzedawanych na rynkach prognozujących przyszłe zachowania jednostek. 

Centralnym mechanizmem kapitalizmu inwigilacji jest asymetryczna relacja wiedzy i władzy pomiędzy podmiotami gromadzącymi dane a osobami, których te dane dotyczą. Zuboff opisuje tę formę władzy jako władzę instrumentalną , która nie opiera się na przemocy ani ideologii, lecz na ciągłym monitorowaniu, modelowaniu i modyfikowaniu zachowań. W tym ujęciu systemy sztucznej inteligencji, a w tym algorytmy analizy obrazu, rozpoznawania twarzy czy klasyfikacji zachowań, pełnią funkcję narzędzi umożliwiających skalowalne i zautomatyzowane przetwarzanie danych wizualnych w celu przewidywania i wpływania na działania jednostek. 

Kapitalizm inwigilacji, w odróżnieniu od klasycznych form nadzoru państwowego, rozwija się przede wszystkim w logice rynkowej i korporacyjnej, często poza bezpośrednią kontrolą demokratycznych instytucji. Jak podkreśla Zuboff, problemem nie jest sama technologia, lecz sposób jej wykorzystania w modelu gospodarczym, który normalizuje permanentną obserwację i przekształca autonomię jednostki w zmienną obliczeniową. W kontekście monitoringu opartego na sztucznej inteligencji koncepcja kapitalizmu inwigilacji pozwala więc analizować nie tylko kwestie prywatności, lecz także ekonomiczne motywacje stojące za rozwojem systemów klasyfikacji i oceny zachowań.

Kilka zdań o dystopi cyfrowej oraz “Rok 1984” w nawiązaniu do tematu.

Dystopia cyfrowa (określana również jako cyberdystopia lub dystopia algorytmiczna) to wizja alternatywnej przyszłości lub teraźniejszości, w której rozwój technologii cyfrowych prowadzi do pogłębienia problemów społecznych, a nie do ich rozwiązania. W tego typu narracjach technologie, zamiast wspierać jednostkę, stają się narzędziem kontroli, selekcji i zarządzania społeczeństwem. 

Dystopie cyfrowe opisują światy, w których algorytmy i systemy informatyczne wpływają na podstawowe struktury społeczne, ekonomiczne i polityczne. Charakterystycznymi elementami tych wizji są m.in. sztuczna inteligencja, masowy nadzór, wszechobecna łączność, analiza danych na dużą skalę, rzeczywistość wirtualna oraz platformy cyfrowe kształtujące zachowania społeczne. Szczególną rolę odgrywa tu monitoring, który przestaje być jedynie narzędziem obserwacji, a staje się systemem ciągłej oceny i klasyfikacji jednostek. W tym sensie dystopie te stanowią krytyczne tło dla współczesnych debat nad etycznymi granicami wykorzystania sztucznej inteligencji w monitoringu oraz nad pytaniem, jaką część swojej wolności jednostki są skłonne oddać w zamian za obietnicę bezpieczeństwa i porządku oraz gdzie pojawia się granica pomiędzy obserwacją a inwigilacją.  

Można o tej różnicy mówić na zasadzie porównania do wizji George’a Orwella przedstawionej w “Rok 1984”. Jest to jedna z klasycznych i najpowszechniej znanych wizji totalnej kontroli społecznej. W powieści tej nadzór sprawowany jest przez państwo za pomocą wszechobecnych teleekranów oraz aparatu represji, który nie tylko obserwuje obywateli, lecz także dyscyplinuje ich zachowania poprzez strach przed byciem zauważonym. Kluczowym elementem tej wizji jest niepewność: jednostka nigdy nie wie, czy w danym momencie jest obserwowana, co prowadzi do internalizacji kontroli i autocenzury. 

Współczesne formy nadzoru opartego na sztucznej inteligencji idą jednak krok dalej niż orwellowska wizja. O ile w „1984” obserwacja zakłada istnienie obserwatora, o tyle w systemach algorytmicznych nadzór jest w dużej mierze zautomatyzowany, ciągły i bezosobowy. Monitoring przestaje być relacją między władzą a obywatelem, a staje się procesem obliczeniowym, w którym algorytmy analizują obrazy, zachowania i wzorce danych w czasie rzeczywistym, bez konieczności ludzkiej decyzji na każdym etapie. 

W tym sensie można mówić o odejściu od klasycznego panoptikonu, opisanego przez Michela Foucaulta, w którym istotna była możliwość bycia obserwowanym. W przypadku nadzoru algorytmicznego jednostka nie tylko może być obserwowana, lecz przede wszystkim jest nieustannie oceniana, klasyfikowana i porównywana z modelami statystycznymi. 

To przesunięcie ma istotne konsekwencje etyczne. W przeciwieństwie do świata Orwella, w którym represja była jawna i związana z aparatem władzy, współczesny nadzór oparty na AI może działać w sposób niewidoczny i trudny do zakwestionowania. Decyzje podejmowane przez algorytmy często sprawiają wrażenie obiektywnych i neutralnych, mimo że są oparte na określonych założeniach, danych treningowych i interesach instytucji, które je wdrażają. 

Dlatego „Rok 1984” pozostaje użytecznym punktem odniesienia dla analizy współczesnych systemów monitoringu, jednak nie dosławnie jako, że nie mamy do czynienia z “ktoś patrzy”, a z “bezosobowy system ocenia, przewiduje i porównuje”.

Kontekst prawa unijnego: 

AI Act zmieni zasady gry - jak przygotować organizację na nowe regulacje? - ITwiz

Od lutego 2025 r. obowiązują przepisy unijnego Aktu o sztucznej inteligencji (AI Act) zakazujące stosowania określonych systemów AI, w tym takich, które umożliwiają rozpoznawanie twarzy oraz inne formy masowej identyfikacji bez wyraźnych gwarancji prawnych lub stosowane w sposób automatyczny do kategoryzacji ludzi według cech wrażliwych. Wśród zakazów znajdują się także narzędzia do manipulacji behawioralnej czy punktacji społecznej. 

W ramach AI Act automatyczna identyfikacja osób poruszających się w przestrzeni publicznej za pomocą AI została ogólnie zakazana z wyjątkiem ściśle określonych przypadków (np. zagrożenia terrorystycznego lub ciężkich przestępstw) i jedynie po wcześniejszej autoryzacji sądowej lub niezależnej jednostki. 

W praktyce oznacza to, że w UE nie istnieje swobodny legalny system masowego rozpoznawania twarzy w monitoringu miejskim bez kontroli proceduralnej. Parlament Europejski w 2025 r. wyrażał również stanowisko, że systemy te nie powinny być stosowane w przestrzeni publicznej bez jasnych gwarancji co do praw człowieka, nadzoru ludzkiego i możliwości odwołania się.

Badanie ankietowe

Badaniem ankietowym online objęto osoby w wieku 18–29 lat (pokolenie Z), zamieszkałe w Polsce, zróżnicowane pod względem wielkości miejscowości zamieszkania. Kwestionariusz zawierał pytania dotyczące: ogólnego nastawienia do systemów nadzoru AI, warunków akceptacji monitoringu w zamian za poczucie bezpieczeństwa, obaw związanych z nadzorem (utrata prywatności itd.). Zebrane odpowiedzi analizujemy również pod względem wpływu czynników demograficznych (np. miejsce zamieszkania, wiek, płeć, poziom znajomości technologii) na stosunek do AI i monitoringu ją wykorzystującym.  

W badaniu wzięły udział 43 osoby.  28 kobiet, 14 mężczyzn oraz 1 osoba niebinarna, spośród których 2 kobiety oraz 1 mężczyzna wskazali wiek wykraczający poza badaną grupę (30, 32 i 40 lat). Ze względu na małą próbę ich odpowiedzi zostaną uwzględnione w dalszej analizie. Średnia wieku respondentów (wyjątkowo nie uwzględniając ww.) wynosi niespełna 24 lata. Najczęściej odpowiadali 23-latkowie (8) oraz 24-latkowie (7).  

Respondenci to w zdecydowanej większości (28) mieszkańcy miast powyżej 500 tys. mieszkańców. Niewielka liczba osób (6) zamieszkuje w miejscowości do 1 tys. mieszkańców, 3 osoby do 5 tys. W miejscowościach do 20, 100 oraz do 500 tys. zamieszkuje zaledwie po 2 respondentów. 

Osoby uczące się lub studiujące oraz równocześnie pracujące stanowiły blisko połowę badanych (49%). 28% to osoby wyłącznie pracujące, a 19% wyłącznie studiujące. 2 respondentów ani nie uczy się/studiuje, ani nie pracuje.

Postawy pokolenia Z wobec AI i nadzoru wizualnego 

Pokolenie Z wychowało się w erze cyfrowej, od najmłodszych lat obcując z Internetem, mediami społecznościowymi itp. Z jednej strony charakteryzuje je duża wiedza i optymizm wobec technologii: np. Ogólnoświatowe badanie EY (2024) pokazało, że 70% przedstawicieli Gen Z deklaruje wysoką wiedzę o AIa 64% pozytywnie ocenia potencjał generatywnej sztucznej inteligencji. Młodzi dostrzegają praktyczne korzyści (oszczędność czasu, analizę dużych danych, zmniejszanie błędów)2. 

Ogólne nastawienie młodych do AI pokazują badania globalne. Wyniki OECD z 2025 wskazują, że osoby młode (18–35 lat), szczególnie w krajach tzw. Gospodarek wschodzących, są bardziej optymistycznie nastawione do AI niż starsi czy Europejczycy3. Analogicznie amerykańska ankieta Pew (2025) pokazuje, że młodsi dorośli częściej wiedzą o AI i częściej z niego korzystają w codziennym życiu niż osoby starsze4. Pokazuje to rosnące obcowanie młodzieży z technologią AI, co przekłada się na dużą biegłość i przyzwyczajenie do algorytmicznych rozwiązań.  

Jednak równocześnie młodzi często postrzegają wymianę prywatności na korzyści jako dopuszczalny kompromis. Sidorova (2025) zauważa, że przedstawiciele Gen Z akceptują ingerencję w prywatność na rzecz wygody i personalizacji, np. aż 88% badanych z pokolenia Z zgadza się dzielić danymi, jeśli poprawi to ich doświadczenia w mediach społecznościowych (w porównaniu do 67% starszych osób)5. W praktyce oznacza to, że młodzi często uznają śledzenie reklam czy lokalizacji za akceptowalne koszty korzystania z nowoczesnych usług cyfrowych6. Mimo tego podkreślają, że liczy się dla nich kontrola nad własnymi informacjami: młodzi ludzie zazwyczaj starają się uzyskiwać zgodę na udostępnianie danych o innych i rozumieją prywatność jako prawo do kreowania własnej „narracji”7. 

Wśród naszych respondentów (43 osoby) znalazła się wyłącznie jedna osoba, która zadeklarowała, że nie korzysta z narzędzi opartych na AI. Jest to 25-letni pracujący mężczyzna zamieszkujący w miejscowości powyżej 500 tys. mieszkańców. 

Źródło: badanie własne 

Większość badanych (33%) korzysta z AI kilka razy w tygodniu, 24% natomiast co najmniej kilka razy dziennie. Codziennymi użytkownikami AI jest również 19% badanych deklarujących jednokrotne użycie. Ledwie jedna osoba mniej (17% ogółu) sięga po narzędzia AI rzadziej niż raz na tydzień, a 7% raz w tygodniu. 

 Źródło: badanie własne 

Osoby korzystające z AI względnie rzadko, tj. Kilka razy w tygodniu, raz na tydzień lub rzadziej oraz osoba niekorzystająca z AI zostały przez nas dodatkowo zapytane o przyczyny tej postawy. Wśród najczęściej wskazywanych powodów niekorzystania/rzadkiego korzystania z tego typu narzędzi znalazły się: pobudki środowiskowe (29%), brak takiej potrzeby (21%), wątpliwości co do polityki gromadzenia/przetwarzania danych (19%). 

Źródło: badanie własne 

Ogólny stosunek naszych respondentów do sztucznej inteligencji mierzony na 5 stopniowej skali, jest z pewnością sceptyczny, raczej negatywny. Ogólna ocena to 2.86. 12 osób nie miało stanowiska (zdecydowało się na środkową pozycję), a tyle samo co raczej pozytywnie, to i raczej negatywnie podchodzi do AI (po 11 osób). Wśród naszych respondentów znalazło się więcej zdecydowanych przeciwników, co zwolenników sztucznej inteligencji (6 do 3 osób). 

Źródło: badanie własne 

Sytuacje i warunki akceptacji nadzoru (z wykorzystaniem AI) 

Stopień akceptacji nadzoru wizualnego wśród młodych (i nie tylko) ludzi bardzo zależy od kontekstu. Badania wskazują, że świadomość celu i skali monitoringu jest kluczowa. We wspominanym już sondażu Panoptykon (2013) aż 83% Polaków popierało utrzymanie lub zwiększenie liczby kamer w przestrzeni publicznej. Wskazuje to, że w realiach miasta młodzi (podobnie jak ogół społeczeństwa) najpewniej akceptują monitoring ulic, placów czy instytucji publicznych, jeśli uznają go za skuteczne narzędzie poprawy bezpieczeństwa. Na akceptację wpływa przekonanie o efektywności – badani Panoptykonu stwierdzali, że kamery odstraszają przestępców i poprawiają poczucie bezpieczeństwa. Można zatem przypuszczać, że Zetki ogółem mogą akceptować nadzór w przestrzeni miejskiej pod warunkiem, iż pozostaje jawny (widoczne kamery), ukierunkowany na faktyczne zagrożenia i gdy istnieją instytucjonalne gwarancje jego zgodności z prawem. 

Inne sytuacje przynajmniej częściowego przyzwolenia mogą dotyczyć miejsc edukacji i pracy. Panoptykon zauważył jednak brak jasnych zasad korzystania np. z monitoringu szkolnego. 
Co ważne, w cyfrowej rzeczywistości istnieje szeroka akceptacja pod warunkiem korzyści: Gen Z rutynowo korzysta z usług, które analizują ich zachowania online (media społecznościowe, platformy streamingowe), uznając to za cenę za personalizację8. 

Praktyczne uwarunkowania akceptacji nadzoru można też zilustrować przykładem. Jedno z amerykańskich badan ankietowych wykazało, że 29% osób poniżej 30 lat opowiada się za instalowaniem kamer w każdym domu w celu ograniczenia przemocy domowej9. Choć większość społeczeństwa USA stanowczo sprzeciwiła się takim rozwiązaniom, wynik ten pokazuje, że młodzi mogą uznać nawet bardzo inwazyjny nadzór za usprawiedliwiony silnym uzasadnieniem bezpieczeństwa. Inny przykład: badanie Cisco ujawniło, że 54% młodych byłoby skłonnych udostępnić zanonimizowane dane swoje lub swoich urządzeń, by ulepszać produkty AI, przy założeniu zachowania anonimowości10. Ogólnie akceptacja systemów AI zwiększa się, gdy wymiar nadzoru jest transparentny, ograniczony do koniecznych funkcji (np. tylko rozpoznawanie konkretnego zachowania) oraz gdy obietnica bezpieczeństwa jest realna. 

Zdecydowana większość respondentów zarówno w swoim miejscu zamieszkania (lub jego najbliższej okolicy) – 72%, jak i miejscu nauki/pracy – 88% dostrzega monitoring wizyjny.  

Nie jest to jednak równoznaczne z jednoznacznym poparciem tezy o zwiększeniu się poczucia bezpieczeństwa danej osoby przez samą jego obecność. Choć większość respondentów (blisko 42%) zgodziłaby się z takim twierdzeniem, to aż 35% nie ma zdania. Łącznie 19% badanych sceptycznie orientuje się wokół tej tezy. 

Źródło: badanie własne 

 

Natomiast w przypadku pytania o zwiększenie poczucia bezpieczeństwa przy wprowadzeniu do monitoringu funkcji AI, stosunek badanych był zgoła odmienny. Przy również wysokiej liczbie osób niezdecydowanych (30%), łącznie 49% badanych pozostaje sceptyczny, z czego 21% zdecydowanie nie zgodziłoby się z taką tezą. Przeciwnie uważa 21%, z czego ledwie 5% z przekonaniem czułoby się bezpieczniej, gdyby monitoring zawierał funkcje AI. 

Źródło: badanie własne 

 

Wśród funkcji AI, które zdaniem respondentów warto zastosować w monitoringu wizyjnym, wskazywano przede wszystkim: automatyczne powiadamianie służb w przypadku identyfikacji zagrożenia (26 osób), algorytmiczną ocenę zagrożenia (15). Aż 13 osób uznało, że żadną z proponowanych.

  

Źródło: badanie własne 

 

Na pytanie: “Czy zgodził(a)byś się na to, aby system AI automatycznie analizował Twoje zachowanie (np. rozpoznawał twarz lub emocje) w miejscu publicznym, jeśli miałoby to zapewnić realne korzyści (np. szybszą reakcję służb w razie zagrożenia)?” aż 49% odpowiedziało negatywnie, co jest wynikiem nieco zaskakującym, gdy jeszcze raz pochylimy się nad powyższym wyborem respondentów. Natomiast zgodę, o której mowa wyraziłoby 33% badanych, a 19% “trudno powiedzieć”.  

 

Źródło: badanie własne 

 

W odniesieniu do przywołanego wyżej amerykańskiego badania, gdzie 29% młodych badanych dostrzegało wartość instalowania kamer w miejscach prywatnych, takich jak domy w celu zapobiegania przemocy, nasi respondenci w większości są sceptyczni do instalowania kamer zawierających funkcje AI na domach, w samochodach czy innych przestrzeniach uznawanych za prywatne (łącznie 44%). Niemalże równie wiele osób jest skłonnych zgodzić się na takie rozwiązanie (40%). Niestety nie wiemy, jak nasi badani odpowiedzieliby na takie pytanie w przypadku zwykłego monitoringu.  

Źródło: badanie własne 

 

Równocześnie, niewątpliwa większość badanych (88%) uważa, że ludzie powinni być informowani, np. Znakami informacyjnymi o obszarze objętym monitoringiem AI.  

Źródło: badanie własne

Obawy i granice prywatności 

Pokolenie Z (mimo dużej akceptacji technologii) ma też istotne obawy związane z nadzorem. Przede wszystkim boi się utraty kontroli nad danymi osobowymi. Badania Cisco pokazały, że 62% młodych konsumentów obawia się, jak organizacje wykorzystają ich dane w celu rozwoju AI11. Wielu podkreśla, że firmy i rządy mogą wykorzystywać zebrane nagrania i profile w sposób niekontrolowany – przykładem może być strach przed jawnością danych biometrycznych czy emocji. W tym kontekście młodzi darzą dużym sceptycyzmem obietnice bezpiecznego zarządzania danymi przez korporacje. W ankiecie Pew (USA 2023) ok. 70% dorosłych stwierdziło, że nie ma zaufania do firm w zakresie odpowiedzialnego wykorzystania AI12. Chociaż te dane dotyczą wszystkich, u Zetek napięcie jest podobne: aż 60% respondentów Cisco przyznało, że straciło zaufanie do firm z powodu korzystania przez nie ze sztucznej inteligencji13. 

Choć zaledwie dla 6 badanych osób obawy dotyczące prywatności, są wśród 3 najważniejszych powodów rzadkiego korzystania/niekorzystania z narzędzi AI (zobrazowane we wcześniejszej części), to aż 51% bardzo obawia się niewłaściwego wykorzystania danych osobowych przez zastosowanie monitoringu z funkcjami AI. Pozostali respondenci (49%) również czują się w tym aspekcie zaniepokojeni.  

Źródło: badanie własne 

 

W przypadku stosowania takich systemów, nasi badani bardziej ufają służbą państwowym (32 osoby) aniżeli firmom technologicznym dostarczającym takie usługi (11 osób). Jednak jak licznie wspominano po wypełnieniu ankiety, było to najtrudniejsze pytanie. Co najmniej 5 osób dopytywało o brak wariantu odpowiedzi “nikomu”.  

Źródło: badanie własne 

 

Granica prywatności w grupie naszych badanych przebiega zróżnicowanie. Z tezą “Jestem gotów(a) zrezygnować z anonimowości w zamian za większe bezpieczeństwo publiczne” zgadza się łącznie 45%, natomiast stosunek do niej przeciwny wyraża 33%. Aż 23% nie ma w tym przypadku określonego zdania.  

Źródło: badanie własne

Podsumowanie

Wyniki przeprowadzonych badań ankietowych wskazują, że młodzi respondenci wykazują wyraźnie sceptyczną postawę wobec wykorzystania sztucznej inteligencji w systemach monitoringu, przy jednoczesnym silnym przywiązaniu do wartości prywatności. Choć deklarują gotowość do ograniczonego poświęcenia części prywatności w zamian za jasno zdefiniowane korzyści, takie jak wzrost bezpieczeństwa publicznego, akceptacja ta ma charakter warunkowy i umiarkowany. Szczególnie niska jest akceptacja dla systemów analizujących emocje, ruchy oraz zachowania jednostek, co sugeruje, że respondenci postrzegają tego typu praktyki jako przekroczenie granicy dopuszczalnej ingerencji w sferę osobistą. Większą korzyść widzą w automatycznym zawiadamianiu odpowiednich służb co może wynikać z mniejszej inwazyjności i charakteru mniej emocjonalno-prywatnego lub z faktu, że rozwiązania oparte na AI o tym zastosowaniu już istnieją w naszej przestrzeni, chociaż by w postaci smart watch’y czy funkcjonalności nowoczesnych telefonów (chociażby iPhone) które w momencie wykrycia wypadku zawiadamiają służby.  Istotnym czynnikiem wpływającym na poziom akceptacji jest również transparentność, badani wyraźnie oczekują czytelnego oznakowania przestrzeni objętych monitoringiem oraz jasnej informacji o zakresie i celu przetwarzania danych. Jednocześnie respondenci wykazują większą gotowość do akceptacji monitoringu w przestrzeni publicznej niż prywatnej, choć różnica ta nie jest znaczna, co może świadczyć o rosnącej wrażliwości na kwestie prywatności niezależnie od kontekstu przestrzennego. Warto również zauważyć, że badani częściej deklarują zaufanie do instytucji państwowych niż do firm technologicznych jako podmiotów zarządzających systemami nadzoru, co kontrastuje z dominującą rolą sektora prywatnego w rozwoju technologii AI. Wyniki te wpisują się w szersze debaty dotyczące granic społecznej akceptacji nadzoru algorytmicznego i wskazują, że młode pokolenie nie odrzuca technologii monitoringu w całości, lecz oczekuje jej ograniczonego, przejrzystego i etycznie uzasadnionego zastosowania. Co może wynikać z coraz większej świadomości technologicznej pokolenia Z i zrozumienia zarówno obecnego rozwoju technologicznego jak i jego zagrożeń. 


Leave a comment