{"id":4212,"date":"2024-04-10T01:00:16","date_gmt":"2024-04-10T01:00:16","guid":{"rendered":"http:\/\/architeles.eu\/ethics\/?p=4212"},"modified":"2024-04-11T09:05:38","modified_gmt":"2024-04-11T09:05:38","slug":"techniki-widzenia-komputerowego-w-systemach-ar-perspektywa-etyczno-spoleczna-zwiazana-z-prywatnoscia-danych","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2024\/04\/10\/techniki-widzenia-komputerowego-w-systemach-ar-perspektywa-etyczno-spoleczna-zwiazana-z-prywatnoscia-danych\/","title":{"rendered":"Techniki widzenia komputerowego w systemach AR. Perspektywa etyczno-spo\u0142eczna zwi\u0105zana z prywatno\u015bci\u0105 danych."},"content":{"rendered":"<p><strong>\u015acis\u0142a integracja technologii z naszym \u017cyciem codziennym bardzo szybko przesta\u0142a by\u0107 odleg\u0142\u0105 przysz\u0142o\u015bci\u0105. Zagadnienia system\u00f3w sztucznej inteligencji, VR i AR czy widzenia komputerowego trafi\u0142y ju\u017c pod przys\u0142owiow\u0105 strzech\u0119. Liczne mo\u017cliwo\u015bci rozwoju i zastosowa\u0144 nowych technologii s\u0105 ju\u017c oczywisto\u015bci\u0105. W debacie publicznej co rusz pojawiaj\u0105 si\u0119 r\u00f3wnie\u017c tematy zagro\u017ce\u0144 takich jak zmiany na rynku pracy wynikaj\u0105ce z wi\u0119kszych mo\u017cliwo\u015bci automatyzacji prostych zada\u0144. Jednak aspektem, kt\u00f3ry mo\u017ce nie zawsze by\u0107 tak oczywisty s\u0105 problemy zwi\u0105zane z prywatno\u015bci\u0105 danych jakie bez w\u0105tpienia \u0142\u0105cz\u0105 si\u0119 z tymi technologiami i ich rozwojem. Przyzwyczaili\u015bmy si\u0119 ju\u017c do wszechobecnych smartfon\u00f3w, smart zegark\u00f3w, urz\u0105dze\u0144 IoT i smart home &#8211; by\u0107 mo\u017ce jeszcze kolejna technologia ju\u017c nie wzbudza w nas nieufno\u015bci.<\/strong><\/p>\n<p><!--more--><\/p>\n<h1><\/h1>\n<h1><span style=\"font-weight: 400\">Nowa rzeczywisto\u015b\u0107 i nowe widzenie<\/span><\/h1>\n<p><span style=\"font-weight: 400\">Technologie AR (ang. Augmented Reality) to techniki, kt\u00f3re mieszaj\u0105 ze sob\u0105 tre\u015bci wygenerowane komputerowo jak wideo czy modele 3D, ze \u015brodowiskiem \u015bwiata rzeczywistego w czasie rzeczywistym. Interakcja odbywa si\u0119 najcz\u0119\u015bciej poprzez medium takie jak smartfon, tablet, okulary AR (AR headset).<\/span><\/p>\n<p><span style=\"font-weight: 400\">Widzenie komputerowe, zaliczane do dziedziny sztucznej inteligencji. Skupia si\u0119 ona na umo\u017cliwieniu komputerom analizowania, rozumienia oraz interpretowania tre\u015bci wizualnych ze \u015bwiata rzeczywistego. Polega na tworzeniu algorytm\u00f3w, kt\u00f3re wydob\u0119d\u0105 warto\u015bciowe informacje z obraz\u00f3w i wideo. Widzenie komputerowe jest u\u017cywane nie tylko w kontek\u015bcie AR, jednak ka\u017cdy sprz\u0119t AR stosuje widzenie komputerowe, aby rozumie\u0107 co widzi u\u017cytkownik w danej chwili.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><span style=\"font-weight: 400\">Kamera przylepiona do twarzy<\/span><\/h1>\n<p><span style=\"font-weight: 400\">Rozszerzona rzeczywisto\u015b\u0107 po raz pierwszy wkroczy\u0142a do \u015bwiadomo\u015bci publicznej w 2012 roku, kiedy Google og\u0142osi\u0142 Google Glass. Glass to sprz\u0119t wygl\u0105dem nie odbiegaj\u0105cy od zwyk\u0142ej pary okular\u00f3w, kt\u00f3ry jest wyposa\u017cony w kamer\u0119 i mo\u017cliwo\u015b\u0107 wy\u015bwietlania obraz\u00f3w na szkle. Jest to wczesny przyk\u0142ad pr\u00f3by komercyjnego wykorzystania rozszerzonej rzeczywisto\u015bci. Reakcja publiki na ten produkt by\u0142a natychmiastowo negatywna, a g\u0142\u00f3wny zarzut wobec produktu by\u0142 nast\u0119puj\u0105cy &#8211; co z prywatno\u015bci\u0105?<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-4567 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image1-300x169.jpg\" alt=\"\" width=\"526\" height=\"296\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image1-300x169.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image1.jpg 686w\" sizes=\"auto, (max-width: 526px) 100vw, 526px\" \/><\/p>\n<p style=\"text-align: center\"><span style=\"font-size: 12pt\"><em>Materia\u0142 promuj\u0105cy Google Glass, wydany przez Google<\/em><\/span><\/p>\n<p><span style=\"font-weight: 400\">Absolutnie ka\u017cdy produkt AR &#8211; czy to pe\u0142en headset VR z funkcjonalno\u015bci\u0105 rozszerzonej rzeczywisto\u015bci, czy zwyk\u0142y smartfon na kt\u00f3rym dzia\u0142a &#8222;Pok\u00e9mon GO&#8221; &#8211; ostatecznie sprowadza si\u0119 do tego, \u017ce jego u\u017cytkownik przechadza si\u0119 po \u015bwiecie z kamer\u0105 nagrywaj\u0105c\u0105 jego otoczenie. Dop\u00f3ki to otoczenie sprowadza si\u0119 do w\u0142asnego pokoju nikogo ten fakt nie razi, jednak wychodz\u0105c w miejsca publiczne u\u017cytkownicy AR zaczynaj\u0105 mimowolnie nagrywa\u0107 przechodni\u00f3w, prywatne domy, tabliczki rejestracyjne itd.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Problemy z prywatno\u015bci\u0105 od pocz\u0105tku by\u0142y cz\u0119\u015bci\u0105 konwersacji o rozszerzonej rzeczywisto\u015bci. Art 81 Pr. Aut wymaga zgody nagrywanej osoby na rozpowszechnianie jej wizerunku, chyba \u017ce ta &#8222;stanowi jedynie szczeg\u00f3\u0142 ca\u0142o\u015bci takiej jak zgromadzenie, krajobraz, publiczna impreza&#8221;. Prawo polskie nie wyja\u015bnia, czy osoby nagrywane przez przechadzaj\u0105cego si\u0119 po mie\u015bcie u\u017cytkonika sprz\u0119tu AR s\u0105 jedynie cz\u0119\u015bci\u0105 krajobrazu i czy wolno nam rozpowszechnia\u0107 ich wizerunek. Z drugiej strony, sprz\u0119t AR nie musi rozpowszechnia\u0107 \u017cadnych wizerunk\u00f3w, wystarczy \u017ce jedynie nagrywa &#8211; ale czy osoba nagrywana mo\u017ce mie\u0107 pewno\u015b\u0107, \u017ce jej twarz lub dane z przetworzonego wideo nie l\u0105duj\u0105 na serwerze jakiego\u015b giganta technologicznego? Czy nawet sam u\u017cytkownik sprz\u0119tu AR mo\u017ce mie\u0107 pewno\u015b\u0107, \u017ce ten sprz\u0119t nie kolekcjonuje danych o nim samym?<\/span><\/p>\n<h1><\/h1>\n<h1><span style=\"font-weight: 400\">Ile wiedz\u0105 o nas cyfrowe okulary?<\/span><\/h1>\n<p><span style=\"font-weight: 400\">Ilo\u015b\u0107 i zaawansowanie sensor\u00f3w w urz\u0105dzeniach AR ro\u015bnie w imponuj\u0105cym tempie. Ju\u017c w produkcie firmy Microsoft &#8211; wydanym w 2019 HoloLens 2, znale\u017a\u0107 mo\u017cna by\u0142o sensory \u015bwiat\u0142a widzialnego, kamery na podczerwie\u0144, sensor odleg\u0142o\u015bci, czujnik inercyjny (m.in. mierz\u0105cy po\u0142o\u017cenie, przyspieszenie, pr\u0119dko\u015b\u0107 kontow\u0105 i inne) oraz kamer\u0119 wideo. Poza tym mia\u0142 on mo\u017cliwo\u015b\u0107 zbierania danych biometrycznych takich jak ruch oczu czy dane na temat poruszania si\u0119 cia\u0142a u\u017cytkownika.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Zak\u0142ada\u0107 nale\u017cy, \u017ce dzisiaj mo\u017cliwo\u015bci takich urz\u0105dze\u0144 s\u0105 jeszcze wi\u0119ksze, a ilo\u015b\u0107 sensor\u00f3w tylko uros\u0142a. Na stronie Apple, w materia\u0142ach reklamuj\u0105cych najnowszy produk tej firmy Apple Vison Pro czytamy, \u017ce poza dwiema g\u0142\u00f3wnymi kamerami o wysokiej rozdzielczo\u015bci urz\u0105dzenie wyposa\u017cone jest jeszcze w sze\u015b\u0107 kamer zwr\u00f3conych w stron\u0119 \u015bwiata zewn\u0119trznego i cztery kamery do \u015bledzenia oczu u\u017cytkownika. Poza tym inne kamery do pomiaru odleg\u0142o\u015bci, r\u00f3wnie\u017c sensor laserowy LiDAR, cztery czujniki inercyjne oraz sensory na\u015bwietlenia.<\/span><\/p>\n<figure id=\"attachment_4568\" aria-describedby=\"caption-attachment-4568\" style=\"width: 459px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4568\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-300x149.png\" alt=\"\" width=\"459\" height=\"228\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-300x149.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-1024x507.png 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-768x380.png 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2.png 1026w\" sizes=\"auto, (max-width: 459px) 100vw, 459px\" \/><figcaption id=\"caption-attachment-4568\" class=\"wp-caption-text\"><em><span style=\"font-size: 12pt\">\u0179r\u00f3d\u0142o obrazka: https:\/\/www.apple.com\/apple-vision-pro\/<\/span><\/em><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Wiemy r\u00f3wnie\u017c, \u017ce innowacyjno\u015b\u0107 Apple VisionPro nie ograniczaj\u0105 si\u0119 wy\u0142\u0105cznie do sensor\u00f3w czy te\u017c ich ilo\u015bci. Jednym z mocno akcentowanych marketingowo punkt\u00f3w jest u\u017cycie w nim a\u017c dw\u00f3ch czip\u00f3w &#8211; M2, kt\u00f3ry odpowiedzialny jest za przetwarzanie danych i obs\u0142ugiwanie wielozadaniowo\u015bci oraz nowy czip R1 stworzony specjalnie dla zastosowa\u0144 rozszerzonej rzeczywisto\u015bci. To w\u0142a\u015bnie R1 pozwala na sprawn\u0105 integracj\u0119 danych z sensor\u00f3w ze \u015bwiatem wirtualnym, kontroli ruchu wy\u015bwietlanej zawarto\u015bci na podstawie ruchu ga\u0142ek ocznych czy inne zmiany k\u0105ta wy\u015bwietlania obrazu zwi\u0105zane z poruszaniem si\u0119 u\u017cytkownika.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Niezaprzeczalny wzrost mo\u017cliwo\u015bci obliczeniowy takich urz\u0105dze\u0144 pozwoli\u0142 r\u00f3wnie\u017c na niesamowite (ale r\u00f3wnie\u017c przera\u017caj\u0105ce) mo\u017cliwo\u015bci modelowania zachowa\u0144 u\u017cytkownik\u00f3w. Jak ujawni\u0142 na platformie X (dawniej Twitter) pewien in\u017cynier neurotechnolog, pracuj\u0105cy w Apple, urz\u0105dzenie potrafi przewidywa\u0107 nasze zachowania zanim si\u0119 one wydarz\u0105. Podaje tam przyk\u0142ad zastosowania takiej technologii, gdzie ch\u0119\u0107 klikni\u0119cia w przycisk jest mo\u017cliwa do przewidzenia na podstawie obserwacji ga\u0142ek ocznych, co pozwala\u0107 ma na szybsze za\u0142adowanie kolejnej strony i wp\u0142ywa na bardziej p\u0142ynne wra\u017cenia z korzystania z urz\u0105dzenia.<\/span><\/p>\n<figure id=\"attachment_4570\" aria-describedby=\"caption-attachment-4570\" style=\"width: 449px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4570\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image4-300x261.png\" alt=\"\" width=\"449\" height=\"391\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image4-300x261.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image4.png 595w\" sizes=\"auto, (max-width: 449px) 100vw, 449px\" \/><figcaption id=\"caption-attachment-4570\" class=\"wp-caption-text\"><em><span style=\"font-size: 12pt\">Fragment wpisu u\u017cytkownika Sterling Crispin dost\u0119pny pod linkiem: https:\/\/twitter.com\/sterlingcrispin\/status\/1665792422914453506<\/span><\/em><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Innym ciekawym zastosowaniem jest wnioskowanie na temat aktualnego stanu funkcji kognitywnych u\u017cytkownika. Odbywa si\u0119 to poprzez szybkie migni\u0119cie \u015bwiat\u0142em czy odtworzenie d\u017awi\u0119ku tak i\u017c jest to poni\u017cej progu postrzegania, a nast\u0119pnie mierzenie reakcji na takie zjawiska. Wszystkie takie dane analizowane s\u0105 nast\u0119pnie z u\u017cyciem modeli uczenia maszynowego w celu okre\u015blenia np. tego czy jeste\u015bmy wypocz\u0119ci czy te\u017c zm\u0119czeni lub jak dobrze uczymy si\u0119 nowych rzeczy, co z kolei wywo\u0142uje adaptacj\u0119 wirtualnego \u015brodowiska w celu dostosowania si\u0119 do naszego aktualnego stanu kognitywnego.<\/span><\/p>\n<figure id=\"attachment_4572\" aria-describedby=\"caption-attachment-4572\" style=\"width: 391px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4572\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image6-300x142.png\" alt=\"\" width=\"391\" height=\"185\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image6-300x142.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image6.png 585w\" sizes=\"auto, (max-width: 391px) 100vw, 391px\" \/><figcaption id=\"caption-attachment-4572\" class=\"wp-caption-text\"><em><span style=\"font-size: 12pt\">Fragment wpisu u\u017cytkownika Sterling Crispin dost\u0119pny pod linkiem: https:\/\/twitter.com\/sterlingcrispin\/status\/1665792422914453506<\/span><\/em><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Ten fragment mo\u017cemy podsumowa\u0107 list\u0105 danych, kt\u00f3re urz\u0105dzenia AR zbieraj\u0105 i wykorzystuj\u0105 do spe\u0142niania swoich zada\u0144 oraz opis jak takie dane mog\u0105 zosta\u0107 wykorzystane gdyby dosta\u0142y si\u0119 w niepowo\u0142ane miejsce:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">dane biometryczne &#8211; do tych danych nale\u017c\u0105 wygl\u0105d t\u0119cz\u00f3wek i ga\u0142ek ocznych, odciski palc\u00f3w, geometria d\u0142oni czy pr\u00f3bki g\u0142osu,<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">dane o ruchu oka &#8211; \u015bledzenie ruchu oka, w kt\u00f3rym miejscu u\u017cytkownik koncentruje uwag\u0119, co mo\u017ce by\u0107 wykorzystane do poznawania zainteresowa\u0144 i zachowa\u0144,<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">ruchy g\u0142owy i cia\u0142a &#8211; mo\u017ce zosta\u0107 wykorzystane do stworzenia cyfrowej kopii u\u017cytkownika (tzw. deepfake),<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">dane lokalizacyjne i przestrzenne (otoczenie u\u017cytkownika),<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">interakcja i dane o zachowaniach &#8211; informacja o tym w jaki spos\u00f3b u\u017cytkownik wchodzi w interakcje ze \u015bwiatem wirtualnym, co mo\u017ce pozwoli\u0107 na stworzenie jego profilu psychologicznego i modelowania zachowa\u0144, jak r\u00f3wnie\u017c poznania jego cech osobowo\u015bci,<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">inne dane powi\u0105zane z kontem u\u017cytkownika (dane osobowe, adres zamieszkania, dane o p\u0142atno\u015bciach itd.).<\/span><\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">Widzimy zatem, \u017ce zakres zbieranych danych jest naprawd\u0119 szeroki. R\u00f3wnie\u017c ryzyko zwi\u0105zane z wykorzystaniem ich przez niepowo\u0142ane osoby czy podmioty z pewno\u015bci stanowi istotny czynnik. Z pewno\u015bci\u0105 nie czuliby\u015bmy si\u0119 komfortowo i bezpiecznie wiedz\u0105c, \u017ce kto\u015b bez naszej zgody m\u00f3g\u0142by wej\u015b\u0107 w posiadania tak wra\u017cliwych danych o nas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Przyjrzyjmy si\u0119 zatem w jaki spos\u00f3b takie dane mog\u0105 by\u0107 wykorzystywane oraz jak oceni\u0107 mo\u017cna ryzyko przekazania tych\u017ce danych w niepowo\u0142ane r\u0119ce.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400\">Do wszelkich zapewnie\u0144 korporacji o bezpiecze\u0144stwie i prywatno\u015bci naszych danych powinnismy podchodzi\u0107 z rezerw\u0105. Znane s\u0105 historie umo\u017cliwienia przekazania czy te\u017c niewystarczaj\u0105cego zabezpiecenia danych przed przekazaniem niepowo\u0142anym podmiotom przez najwi\u0119ksze firmy. Prawdopodobnie najbardziej medialnie znanym jest przypadek Cambridge Analytica, w kt\u00f3rym to Facebook pozwoli\u0142 na pobranie z platformy danych o milionach swoich u\u017cytkownik\u00f3w bez ich zgody.<\/span><\/p>\n<figure id=\"attachment_4571\" aria-describedby=\"caption-attachment-4571\" style=\"width: 483px\" class=\"wp-caption alignright\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4571\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image5-300x169.png\" alt=\"\" width=\"483\" height=\"272\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image5-300x169.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image5-1024x576.png 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image5-768x432.png 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image5-1536x864.png 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image5.png 1920w\" sizes=\"auto, (max-width: 483px) 100vw, 483px\" \/><figcaption id=\"caption-attachment-4571\" class=\"wp-caption-text\"><em><span style=\"font-size: 12pt\">\u0179r\u00f3d\u0142o obrazka: https:\/\/www.yankodesign.com\/2023\/06\/07\/every-single-sensor-in-the-apple-vision-pro-and-what-its-individually-designed-to-do\/<\/span><\/em><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Innym sposobem naruszania prywatno\u015bci u\u017cytkownik\u00f3w jest rynek reklamowy w serwisach internetowych. W uproszczeniu model ten polega na sprzedawaniu przestrzeni reklamowej na stronie internetowej temu kto najwi\u0119cej zap\u0142aci. Przed tym jak transakcja dojdzie do skutku reklamodawcy otrzymuj\u0105 dane profiluj\u0105ce u\u017cytkownik\u00f3w, kt\u00f3re pozwalaj\u0105 im okre\u015bli\u0107 op\u0142acalno\u015b\u0107 pokazania danemu u\u017cytkownikowi swojej reklamy. W ten spos\u00f3b reklamodawcy mog\u0105 otrzyma\u0107 dost\u0119p do niekt\u00f3rych zanonimizowanych informacji o u\u017cytkownikach tych\u017ce serwis\u00f3w. Niestety, okazuje si\u0119, \u017ce dane te mog\u0105 by\u0107 wykorzystywane np. przez instytucje rz\u0105dowe do szpiegowania u\u017cytkownik\u00f3w. W tym artykule: <\/span><a href=\"https:\/\/www.wired.com\/story\/how-pentagon-learned-targeted-ads-to-find-targets-and-vladimir-putin\/\"><span style=\"font-weight: 400\">https:\/\/www.wired.com\/story\/how-pentagon-learned-targeted-ads-to-find-targets-and-vladimir-putin\/<\/span><\/a><span style=\"font-weight: 400\"> opisany jest\u00a0 jak organizacje szpiegowskie USA wykorzystywa\u0142y dok\u0142adnie ten mechanizm do poznania lokalizacji os\u00f3b znajduj\u0105cych si\u0119 w kr\u0119gu ich zainteresowa\u0144 &#8211; w tym r\u00f3wnie\u017c samego prezydenta Rosji W\u0142adimira Putina.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Niestety jest to przypadek, w kt\u00f3rym urz\u0105dzenia wirtualnej i rozszerzonej rzeczywisto\u015bci dostarczaj\u0105 jeszcze wi\u0119cej mo\u017cliwo\u015bci profilowania. Mnogo\u015b\u0107 danych zbieranych przez sensory AR otwiera pole do spekulacji o jeszcze \u0142atwiejszym dopasowaniu cech do daj\u0105cej si\u0119 zidentyfikowa\u0107 osoby.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Jak wykaza\u0142y eksperymenty (<\/span><a href=\"https:\/\/arxiv.org\/pdf\/2209.10849.pdf\"><span style=\"font-weight: 400\">https:\/\/arxiv.org\/pdf\/2209.10849.pdf<\/span><\/a>)<span style=\"font-weight: 400\"> takie urz\u0105dzenia mo\u017cna ju\u017c wykorzystywa\u0107 do rozpoznawania wieku czy p\u0142ci osoby, kt\u00f3ra ich u\u017cywa.\u00a0<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1 style=\"text-align: left\"><span style=\"font-weight: 400\">Regulacje &#8211; ostatnia deska ratunku?<\/span><\/h1>\n<figure id=\"attachment_4595\" aria-describedby=\"caption-attachment-4595\" style=\"width: 300px\" class=\"wp-caption alignleft\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4595 size-medium\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/EU_AI_Act_Coverpage-300x300.jpg\" alt=\"\" width=\"300\" height=\"300\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/EU_AI_Act_Coverpage-300x300.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/EU_AI_Act_Coverpage-150x150.jpg 150w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/EU_AI_Act_Coverpage-70x70.jpg 70w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/EU_AI_Act_Coverpage.jpg 576w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><figcaption id=\"caption-attachment-4595\" class=\"wp-caption-text\"><em><span style=\"font-size: 12pt\">\u0179r\u00f3d\u0142o obrazka: https:\/\/artificialintelligenceact.eu\/wp-content\/uploads\/2024\/01\/EU_AI_Act_Coverpage.jpg<\/span><\/em><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400\">Skoro wiemy ju\u017c jak niebezpieczne w teorii mog\u0105 by\u0107 konsekwencje zaniedba\u0144 ze strony korporacji udost\u0119pniaj\u0105cych narz\u0119dzia AR to czy jest jaki\u015b spos\u00f3b aby wym\u00f3c na nich wi\u0119ksz\u0105 dba\u0142o\u015b\u0107 o prywatno\u015b\u0107 u\u017cytkownik\u00f3w? Od czas\u00f3w Cambridge Analytica wiele si\u0119 zmieni\u0142o i firmy przetwarzaj\u0105ce dane u\u017cytkownik\u00f3w zmuszane s\u0105 przez regulacje do przestrzegania prawa do prywatno\u015bci (np. RODO). Z najnowszych doniesie\u0144 &#8211; w marcu w Parlamencie Europejskim przeg\u0142osowany zosta\u0142 tzw. AI Act, czyli projekt prawny, kt\u00f3re ma regulowa\u0107 stosowanie sztucznej inteligencji w podmiotach dzia\u0142aj\u0105cych na terenie Unii Europejskiej. Na szczeg\u00f3\u0142owe wdro\u017cenie zalece\u0144 trzeba b\u0119dzie jeszcze poczeka\u0107, jednak po obecnym kszta\u0142cie tego dokumentu wiadomo, \u017ce systemy AI podzielone zostan\u0105 na systemy o r\u00f3\u017cnym stopniu ryzyka. Z przyznanej klasyfikacji wynika\u0107 b\u0119d\u0105 pewne obowi\u0105zki, nie tylko dotycz\u0105ce zachowania standard\u00f3w prowadzenia proces\u00f3w oceny dok\u0142adno\u015bci, ryzyka czy bezpiecze\u0144stwa rozwi\u0105zania, ale r\u00f3wnie\u017c konieczno\u015b\u0107 wi\u0119kszej transparentno\u015bci w dzia\u0142aniu. Przyk\u0142adowo systemy znajduj\u0105ce si\u0119 w klasie najwy\u017cszego ryzyka (ang. high risk) zobowi\u0105zane b\u0119d\u0105 do prowadzenia i utrzymywania dokumentacji systemu podlegaj\u0105cej ocenom zgodno\u015bci. Pozostaje zatem mie\u0107 nadziej\u0119, \u017ce rozs\u0105dne wdro\u017cenie tej i innych regulacji ustandaryzuje rynek computer vision AR w spos\u00f3b przyjazny dla u\u017cytkownik\u00f3w i dla ich prywatno\u015bci.<\/span><\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<h1><\/h1>\n<p>&nbsp;<\/p>\n<h1 style=\"text-align: left\"><span style=\"font-weight: 400\">Czego nie widzi widzenie komputerowe<\/span><\/h1>\n<p><span style=\"font-weight: 400\">Nie trzeba gogli wype\u0142nionych milionami sensor\u00f3w, aby wpakowa\u0107 si\u0119 w spo\u0142eczne k\u0142opoty. Samo oprogramowanie odpowiadaj\u0105ce za widzenie komputerowe mo\u017ce by\u0107 przedmiotem kontrowersji. Za terminem &#8222;computer vision&#8221; kryje si\u0119 szereg algorytm\u00f3w i sieci neuronowych przetwarzaj\u0105cech dane, tak aby m\u00f3c rozumie\u0107 obrazy. Tego typu algorytmy s\u0105 trenowane (uczone) na pewnych danych treningowych i rozpoznaj\u0105 elementy obrazu na podstawie tych informacji, kt\u00f3re wyekstrapolowa\u0142y z danych treningowych.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Mo\u017cliwo\u015bci tych algorytm\u00f3w zale\u017c\u0105 wi\u0119c w du\u017cej mierze od tego co zawieraj\u0105 dane treningowe &#8211; a te, jak si\u0119 okazuj\u0105, zawieraj\u0105 dysproporcjonalnie wiele bia\u0142ych m\u0119\u017cczyzn. Badania z 2018 roku pokaza\u0142y, \u017ce dost\u0119pne wtedy na rynku modele rozpoznawania p\u0142ci myl\u0105 si\u0119 8-20% razy wi\u0119cej w przypadku kobiet ni\u017c m\u0119\u017cczyzn. Badacze z Harvardu znale\u017ali podobny trend w przypadku analizowania twarzy ciemnosk\u00f3rych os\u00f3b, w por\u00f3wnaniu z osobami o jasnej karnacji<\/span><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><\/h2>\n<h2><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-4597 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image6-1-300x129.png\" alt=\"\" width=\"737\" height=\"317\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image6-1-300x129.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image6-1.png 720w\" sizes=\"auto, (max-width: 737px) 100vw, 737px\" \/><\/h2>\n<p style=\"text-align: center\"><em>Por\u00f3wnanie celno\u015bci modeli r\u00f3\u017cnych firm na danych z r\u00f3\u017cnych grup demograficznych<\/em><\/p>\n<p><span style=\"font-weight: 400\">Czy ma to jakiekolwiek prze\u0142o\u017cenie na rzeczywosto\u015b\u0107? W 2015 roku Google wpad\u0142 w medialne tarapaty po tym, gdy u\u017cytkowniczk Google Photos ujawni\u0142, \u017ce album ze zdj\u0119ciami jego znajomych zosta\u0142 automatycznie otagowany jako zawieraj\u0105cy &#8222;goryle&#8221; przez algorytm. <\/span><\/p>\n<p>&nbsp;<\/p>\n<h2><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-4596 aligncenter\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-1-300x233.png\" alt=\"\" width=\"617\" height=\"479\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-1-300x233.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/03\/image2-1.png 401w\" sizes=\"auto, (max-width: 617px) 100vw, 617px\" \/><\/h2>\n<p style=\"text-align: center\"><em>B\u0142\u0105d Google Photos w oznakowaniu folderu zawieraj\u0105cego czarnosk\u00f3re osoby<\/em><\/p>\n<p><span style=\"font-weight: 400\">Mo\u017ce w tym przypadku poniesiona szkoda mia\u0142a jedynie wymiar medialny, jednak od tego czasu widzenie komputerowe wkrad\u0142o si\u0119 do wielu innych dziedzin ni\u017c tylko tagowanie zdj\u0119\u0107. Co je\u015bli to nie Google Photos, a na przyk\u0142ad program samosteroj\u0105cgo samochodu pomyli\u0142by czarnosk\u00f3r\u0105 osob\u0119 z gorylem? Skutki na pewno by\u0142y by powa\u017cniejsze. Oczywistym jest, \u017ce \u017cadna osoba nie powinna mie\u0107 gorszych do\u015bwiadcze\u0144 podczas u\u017cywania sprz\u0119tu AR, lub by\u0107 bardziej nara\u017cona na niebezpiecze\u0144stwo ze strony u\u017cytkownik\u00f3w widzenia komputerowego jedynie ze wzgl\u0119du na jej p\u0142e\u0107, czy kolor sk\u00f3ry. Wraz ze wzrostem ilo\u015bci zastosowa\u0144 widzenia komputerowego programi\u015bci musz\u0105 zadba\u0107 o to, aby te modele sprawdza\u0142y si\u0119 celnie w ka\u017cdym kontek\u015bcie. W praktyce oznacza to np.: stosowanie bardziej r\u00f3\u017cnorodnych zbior\u00f3w treningowych. Malej\u0105ca ilo\u015b\u0107 medialnych doniesie\u0144 o podobnych wpadkach sugeruje, \u017ce w ostatnich latach faktycznie nast\u0105pi\u0142 post\u0119p w tej sprawie.<\/span><\/p>\n<p>&nbsp;<\/p>\n<h1><span style=\"font-weight: 400\">Patrz\u0105c w przysz\u0142o\u015b\u0107 (przez okulary AR)<\/span><\/h1>\n<p><span style=\"font-weight: 400\">Google Glass, prowodyr sprz\u0119tu AR okaza\u0142 si\u0119 kompletnym niewypa\u0142em. Powod\u00f3w z pewno\u015bci\u0105 by\u0142o wiele: wysoka cena, funkcjonalno\u015b\u0107 dost\u0119pna w innych, ta\u0144szych alternatywach, pr\u00f3ba pozycjonowania produktu jako elementu nowoczesnej mody itd. Jednak z pewno\u015bci\u0105 olbrzymi\u0105 rol\u0119 w pora\u017cce tego produktu odegra\u0142y etyczne i spo\u0142eczne w\u0105tpliwo\u015bci wok\u00f3\u0142 prywatno\u015bci i bezpiecze\u0144stwa danych tego sprz\u0119tu. Niekt\u00f3re miejsca publiczne stawia\u0142y nawet zakazy u\u017cywania Google Glass na ich terenie (p\u00f3\u017aniej ta sama historia powt\u00f3rzy\u0142a si\u0119 z gr\u0105 &#8222;Pok\u00e9mon GO&#8221;).<\/span><\/p>\n<p><span style=\"font-weight: 400\">Niedawno Apple opublikowa\u0142 Vision Pro &#8211; produkt o wysokiej cenie, funkcjonalno\u015bci dost\u0119pnej w innych, ta\u0144szych alternatywach i tych samych problemach etycznych, kt\u00f3re towarzyszy\u0142y bran\u017cy AR od jej pocz\u0105tku. Technologia i rozdzielczo\u015b\u0107 posz\u0142y do przodu, jednak nadal nie ma jasnej, prawno-spo\u0142ecznej odpowiedzi na to, czy chodzenie wsz\u0119dzie z kamer\u0105 w postaci sprz\u0119tu AR powinno by\u0107 dozwolone. Jednak wiele zmieni\u0142o si\u0119 przez dekad\u0119 od powstania Google Glass. Dzisiaj nikogo ju\u017c nie dziwi wszechobecno\u015b\u0107 (wyposarzonych w kamery) smartfon\u00f3w. Coraz wi\u0119cej ludzi chodzi do pracy, lub rozmawia z bliskimi przez patrzenie w kamer\u0119. Influencerzy nagrywaj\u0105 vlogi w miejscach publicznych i publikuj\u0105 je w sieci. Czy stosunek spo\u0142ecze\u0144stwa do bycia nagrywanym ociepli\u0142 si\u0119? By\u0107 mo\u017ce koncept publicznie noszonego sprz\u0119tu AR przestaje by\u0107 tabu, a mo\u017ce nawet w przysz\u0142o\u015bci AR stanie si\u0119 tak normalny jak dzisiejszy wszechobecny smartfon.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Czas poka\u017ce. Jeszcze za szybko, \u017ceby okre\u015bli\u0107 czy Apple Vision Pro jest pora\u017ck\u0105, czy sukcesem, jednak niew\u0105tpliwie po nim przyjd\u0105 kolejne iteracje technolgii AR. A problemy etyczne, z kt\u00f3rymi ta bran\u017ca boryka si\u0119 ju\u017c od czas\u00f3w Google Glass, nadal pozostaj\u0105 nierozwi\u0105zane&#8230;<\/span><\/p>\n<p>&nbsp;<\/p>\n<h2>Literatura<\/h2>\n<p>Nagranie z og\u0142oszenia Google Glass: <a href=\"https:\/\/www.youtube.com\/watch?v=OLn0cSZfl6c\">https:\/\/www.youtube.com\/watch?v=OLn0cSZfl6c<\/a><\/p>\n<p>Art. 81 Pr. Aut. &#8211; Zezwolenie na rozpowszechnianie wizerunku: <a href=\"https:\/\/sip.lex.pl\/akty-prawne\/dzu-dziennik-ustaw\/prawo-autorskie-i-prawa-pokrewne-16795787\/art-81\">https:\/\/sip.lex.pl\/akty-prawne\/dzu-dziennik-ustaw\/prawo-autorskie-i-prawa-pokrewne-16795787\/art-81<\/a><\/p>\n<p>Projekt &#8222;Gendershades&#8221;: <a href=\"http:\/\/gendershades.org\/overview.html\">http:\/\/gendershades.org\/overview.html<\/a><\/p>\n<p>&#8222;Racial Discrimination in Face Recognition Technology&#8221;: <a href=\"https:\/\/sitn.hms.harvard.edu\/flash\/2020\/racial-discrimination-in-face-recognition-technology\/\">https:\/\/sitn.hms.harvard.edu\/flash\/2020\/racial-discrimination-in-face-recognition-technology\/<\/a><\/p>\n<p>Apple Vision Pro z oficjalnej strona Apple: <a href=\"https:\/\/www.apple.com\/apple-vision-pro\/\"><span style=\"font-weight: 400\">https:\/\/www.apple.com\/apple-vision-pro\/<\/span><\/a><\/p>\n<p>&#8222;Every Single Sensor inside the Apple Vision Pro and What It\u2019s Individually Designed To Do&#8221;: <a href=\"https:\/\/www.yankodesign.com\/2023\/06\/07\/every-single-sensor-in-the-apple-vision-pro-and-what-its-individually-designed-to-do\/\"><span style=\"font-weight: 400\">https:\/\/www.yankodesign.com\/2023\/06\/07\/every-single-sensor-in-the-apple-vision-pro-and-what-its-individually-designed-to-do\/<\/span><\/a><\/p>\n<p>&#8222;Google Mistakenly Tags Black People as \u2018Gorillas,\u2019 Showing Limits of Algorithms&#8221;: <a href=\"https:\/\/www.wsj.com\/articles\/BL-DGB-42522\">https:\/\/www.wsj.com\/articles\/BL-DGB-42522<\/a><\/p>\n<p>&#8222;Why Google Glass Failed&#8221;: <a href=\"https:\/\/www.investopedia.com\/articles\/investing\/052115\/how-why-google-glass-failed.asp\">https:\/\/www.investopedia.com\/articles\/investing\/052115\/how-why-google-glass-failed.asp<\/a><\/p>\n<p>&#8222;How the Pentagon Learned to Use Targeted Ads to Find Its Targets\u2014and Vladimir Putin&#8221;:\u00a0<a href=\"https:\/\/www.wired.com\/story\/how-pentagon-learned-targeted-ads-to-find-targets-and-vladimir-putin\/\">https:\/\/www.wired.com\/story\/how-pentagon-learned-targeted-ads-to-find-targets-and-vladimir-putin\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u015acis\u0142a integracja technologii z naszym \u017cyciem codziennym bardzo szybko przesta\u0142a by\u0107 odleg\u0142\u0105 przysz\u0142o\u015bci\u0105. Zagadnienia system\u00f3w sztucznej inteligencji, VR i AR czy widzenia komputerowego trafi\u0142y ju\u017c pod przys\u0142owiow\u0105 strzech\u0119. Liczne mo\u017cliwo\u015bci rozwoju i zastosowa\u0144 nowych technologii s\u0105 ju\u017c oczywisto\u015bci\u0105. W debacie publicznej co rusz pojawiaj\u0105 si\u0119 r\u00f3wnie\u017c tematy zagro\u017ce\u0144 takich jak zmiany na rynku pracy wynikaj\u0105ce [&hellip;]<\/p>\n","protected":false},"author":182,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[15,367,49,48,12,139,55,39,364,87,13,20,290],"class_list":["post-4212","post","type-post","status-publish","format-standard","hentry","category-uncategorized","tag-ai","tag-ar","tag-dane","tag-data","tag-etyka","tag-prawo","tag-prywatnosc","tag-przetwarzanie-danych","tag-rozszerzona-rzeczywistosc","tag-si","tag-spoleczenstwo","tag-sztuczna-inteligencja","tag-widzenie-komputerowe"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/4212","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/182"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=4212"}],"version-history":[{"count":18,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/4212\/revisions"}],"predecessor-version":[{"id":4662,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/4212\/revisions\/4662"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=4212"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=4212"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=4212"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}