Home » AGH 2023/24 » Informacyjny Savoir Vivre i estetyka danych. O czym warto pamiętać przetwarzając dane i projektując systemy sztucznej inteligencji by służyły społeczeństwu.

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 61
  • 517
  • 25 109
  • 7 347
  • 14

Informacyjny Savoir Vivre i estetyka danych. O czym warto pamiętać przetwarzając dane i projektując systemy sztucznej inteligencji by służyły społeczeństwu.

Spread the love

Jako społeczeństwo produkujemy, przetwarzamy i wykorzystujemy coraz to więcej i więcej danych. Wraz ze wzrostem powszechności dużych zbiorów danych pojawia się potrzeba aby dane te były przechowywane oraz wykorzystywane w sposób etyczny oraz pozwalający na uzyskanie z nich wartościowych informacji. W poniższym artykule chcemy przedstawić pojęcia informacyjnego Savoir Vivre’u oraz estetyki danych a także jak projektować zgodnie z nimi systemy sztucznej inteligencji tak aby służyły społeczeństwu.

Czym jest informacyjny Savoir Vivre oraz estetyka danych?

Pojęcia te zdają się nie mieć określonej definicji i dają pole do interpretacji ich znaczenia, jednakowo mamy pewną intuicję co mogą znaczyć. Sam Savoir Vivre pochodzi z języka francuskiego i oznacza „znajomość życia”. Pojęcie to określa jako znajomość obyczajów i form towarzyskich, reguł grzeczności oraz jako umiejętność postępowania w życiu i radzenia sobie w różnych trudnych sytuacjach. Dodatkowo jest uwarunkowany w zależności od miejsca w jakim się znajdujemy i przykładowo w Polsce obowiązują nas inne normy społeczne niż w krajach muzułmańskich. Jeśli chcemy określić co znaczy i czego dotyczy informacyjny Savoir Vivre powinniśmy skupić się na zdefiniowaniu norm w przetwarzaniu różnego rodzaju informacji. O ile sam Savoir Vivre jest spisanymi normami to nie są one prawnie wiążące o tyle normy związane z przetwarzaniem danych bardzo często znajdują swoje potwierdzenie z przepisach prawa. Jako przykład może posłużyć rozporządzenie o ochronie danych osobowych (RODO) określające jakie wymogi musimy spełnić przy zbieraniu czy przetwarzaniu danych, a przykładem takiej normy jest uzyskanie zgody od osoby na przetwarzanie danych czy przetwarzanie danych tylko w celach o których poinformowaliśmy użytkownika.

Les 50 règles d'or du savoir-vivreźródło: Les 50 règles d’or du savoir-vivre | hachette.fr

Kolejnym pojęciem jest estetyka danych, żeby zrozumieć to pojęcie ponownie zajmijmy się analizą swój z jakich się składa. Sama estetyka odnosi się do działu filozofii zajmującego się pięknem oraz odczuciami czy przeżyciami związanymi obcowaniem z nim. Jeśli popatrzyć na to w aspekcie danych możemy dojść do wniosku że estetyka danych będzie zajmować się czytelnym, klarownym lub niecodziennym wizualizowaniem danych w celu podkreślenia ich właściwości w sposób niewprowadzający niepotrzebnych nieścisłości. Estetyka danych będzie się objawiać między z innymi w odpowiedniej metodzie tworzenia wykresów, przedstawiania informacji w sposób czytelny dla użytkownika końcowego i niestosowania technik manipulacji danymi.

Przetwarzanie danych

Przetwarzanie danych jest niewątpliwie bardzo rozległym tematem i wymaga zarówno wiedzy technicznej oraz prawnej. Nie możemy zapominać też o aspekcie etycznym przetwarzania danych. Do aspektów przetwarzania danych które chcemy poruszyć w poniższym tekście należą: manipulowanie danymi, sprzedawanie danych użytkownika pomiędzy firmami, wykorzystywanie danych zgodnie z celami ich pozyskania, zbieranie danych bez zgody czy nielegalny scrapping.

Jako pierwsze zajmijmy się manipulowaniem danymi w celu wprowadzenia w błąd innych. Jest to oczywiście zachowanie niemoralne jednak mimo tego jest dość powszechnie stosowane przez media, polityków czy przestępców i można powiedzieć że przyzwyczailiśmy się do tego jako społeczeństwo. Manipulacje danymi zdarzają się jednak bardzo często także w innych miejscach. Niekiedy naukowcy manipulują danymi aby udowodnić że nowa metoda opracowywana przez nich jest lepsza. W tym przypadku taka manipulacja jest bardzo wysublimowana i przez to trudna do wykrycia gdyż może polegać na przedstawianiu części dostępnych danych czy takim stworzeniu eksperymentów aby nowa metoda okazywała się lepsza niż nowa. Przykładami manipulacji danych może być manipulowanie skalami wykresów czy przedstawianie predykcji na przyszłość jak danych z przeszłości.

Kolejnym aspektem jaki warto poruszyć jest sprzedawanie danych osobowych między firmami. Jest to bardzo intratny proceder a największe firmy zajmujące się zbieraniem i sprzedawaniem danych osobowych są wycenianie na miliardy dolarów [1]. Firmy takie nazywane są brokerami i zarządzają ogromnymi ilościami danych gdzie przykładowo firma Actiom posiada ponad 23 000 serwerów i przetwarza dane należące osobowe 7% populacji świata. Firmy takie zbierają dane bez wiedzy osób których dane są zbierane poprzez przeglądanie otwarto źródłowych stron i zbierania z nich informacji a następnie przetwarzanie ich i stworzenie profili realnych ludzi. Dane te są potem sprzedawane do różnego rodzaju firm potrzebujących ich czy to do efektywnego prowadzenia biznesu czy znajdywania poszczególnych klientów. Warto dodać że bardzo wiele firm korzysta z takich rozwiązań w tym Facebook który sam posiada przecież ogromne ilości danych na temat swoich użytkowników. Już sam fakt przetwarzania danych osobowych i sprzedawanie ich może budzić spore obawy etyczno-moralne. Firma sprzedająca dane nie jest wstanie określić czy docelowy klient będzie wykorzystywał je w sposób moralny czy nie wykorzysta danych o zachowaniu i nawykach osób np. do włamania się do mieszkania. W temacie sprzedawania danych należy podkreślić że sprzedawane są nie tylko zagregowane dane dostępne publicznie czy wykupione od innych firm lecz także dane uzyskane poprzez atak hakerski zawierające często bardzo wrażliwe dane takie jak: numery kart kredytowych, dane logowania na konta czy dane medyczne. Jako przykład można podać dane klientów jednego z największych wycieków danych medycznych w Polsce [2] gdzie hakerzy przejęli dane pacjentów Alab laboratoria.  Dane medyczne są nawet bardziej cenne niż wyżej dane logowania gdyż nie jesteśmy w stanie nic zrobić żeby zabezpieczyć się przed konsekwencjami ich upublicznienia w przeciwieństwie do haseł które zawsze możemy zmienić. Handel czy przechowywanie danych zdobytych w sposób nielegalny jest oczywiście naganne z punku widzenia etyki oraz społecznego czy ekonomicznego. W tym celu podmioty przechowujące dane osobowe powinny w jak najlepszy sposób je zabezpieczać.

Ponieważ dane stały się bardzo ważne do poprawnego działania wielu systemów i ich wartość stała się bardzo duża wprowadzone zostały pewne normy prawne określające w jaki sposób należy przetwarzać dane. Pozwala to na wprowadzeniu pewnych obowiązków podmiotom przetwarzającym dane. W Polsce obowiązuje RODO (Rozporządzenie o Ochronie Danych Osobowych) [3]. Rozporządzenie określa to między innymi że aby przetwarzać dane osobowe należy uzyskać zgodę osoby do której należą dane. Dodatkowo, zgoda ta musi być dobrowolna, konkretna i jednoznaczna. Dobrowolność oznacza że nie osoba nie może wyrażać tej zgody pod przymusem. Aby zgoda była jednoznaczna nie może mieć charakteru domniemanego. Ostatnie określenie – konkretność oznacza że zgoda musi dokładnie określać cel przetwarzania i być wyrażona oddzielnie dla każdego celu. Dodatkowo, żeby uzyskać zgodę musisz określić: kto będzie przetwarzał dane, możliwości zmiany czy sprostowania danych czy prawie do cofnięcia zgody w dowolnym momencie.

Przetwarzanie danych osobowych RODO
źródło: Przetwarzanie danych osobowych RODO (tatran.pl)

Istnieją również normy określające sposoby w jaki należy przechowywać dane [4]. Do wybranych aspektów możemy naliczyć obowiązek przetwarzania danych zgodnie z celami z jakimi zostały zebrane. Nie powinniśmy zbierać również większej ilości danych niż potrzebne do wykonania celów przetwarzania danych. Powinniśmy również dbać aby nasze dane były odpowiednio zabezpieczone, a także aby były poprawne oraz aktualne. Osoby przetwarzające dane powinny również przechowywać je w sposób pozwalający na identyfikację osoby oraz tylko przez okres niezbędny do uzyskania celów w jakich zostały pozyskane. Normy te pozwalają w dość dobry sposób uporządkować zasady przetwarzania danych a także dają prawa osobom których dane są przetwarzane.

Ostatnim aspektem jakim chcemy poruszyć w tym rozdziale jest scrapping stron internetowych [5]. Polega on na zbieraniu (z reguły automatycznym, przy użyciu botów)  danych ze stron internetowych np. zbieraniu cen ze sklepów internetowych. Sam scrapping jest legalny jednak musimy pamiętać o paru elementach, po pierwsze po uzyskaniu danych musimy je przetwarzać zgodnie z prawem, dotyczy to szczególnie danych osobowych. Po drugie musimy upewnić się że zarządca strony nie zabronił używania botów czy nie ograniczył w określony sposób ich możliwego użycia. Dodatkowo, musimy pamiętać że boty są wstanie wytworzyć bardzo duży ruch na stronie i spowodować jej spowolnienie czy zatrzymanie. Z tego powodu powinniśmy ograniczyć prędkość scrappowania strony lub scrappować ją w momencie z małą ilością ruchu. Przykładowo scrappowanie strony Centralnej Komisji Egzaminacyjnej w momencie ogłoszenia wyników matur nie będzie najlepszym pomysłem.

 

Algorytmy – detektory wzorców i pułapka uprzedzeń

Algorytmy sztucznej inteligencji to w gruncie rzeczy zaawansowane detektory wzorców. Uczą się na podstawie ogromnych zbiorów danych, identyfikując zależności i korelacje, których człowiek mógłby nie zauważyć. Problem w tym, że dane te często niosą ze sobą nie tylko informacje, ale i uprzedzenia, wynikające z ludzkich postaw, stereotypów i nierówności społecznych.

W efekcie, zamiast obiektywnych analiz, możemy otrzymać systemy AI, które powielają i utrwalają dyskryminujące wzorce. Przykłady?

  • System rekrutacyjny Amazona – Algorytm, mający na celu automatyzację rekrutacji, wykazywał tendencję do faworyzowania kandydatów płci męskiej. Powód? System uczył się na podstawie danych historycznych, w których to mężczyźni stanowili większość zatrudnionych na stanowiskach technicznych.
  • Algorytm COMPAS, wykorzystywany w amerykańskim systemie sprawiedliwości: System miał przewidywać ryzyko recydywy wśród oskarżonych. Niestety, okazało się, że algorytm niesłusznie przypisywał Afroamerykanom wyższe ryzyko popełnienia przestępstwa w przyszłości, co prowadziło do surowszych wyroków.
  • System rozpoznawania twarzy Badania wykazały, że algorytmy rozpoznawania twarzy działają mniej precyzyjnie w przypadku osób o ciemniejszej karnacji skóry, co może prowadzić do błędnej identyfikacji i dyskryminacji.

Te przykłady pokazują, że estetyka danych to nie tylko kwestia techniczna, ale przede wszystkim etyczna. Ignorowanie uprzedzeń w danych to tworzenie systemów AI, które zamiast niwelować nierówności społeczne, jedynie je pogłębiają.

 

Algorytm z klasą

The Alignment Problem: How Can Machines Learn Human Values?

W świecie, gdzie algorytmy decydują o przyznaniu kredytu, doborze treści, a nawet diagnozie medycznej, kwestia etyki AI przestaje być futurystyczną mrzonką, stając się palącą potrzebą. Nie wystarczy budować systemy inteligentne – musimy upewnić się, że są one również mądre, działające z korzyścią dla ludzi.

Kluczem do tego jest “alignment problem”, czyli problem wyrównania celów sztucznej inteligencji z celami ludzkości. Wyobraźmy sobie super inteligentny system, którego celem jest produkcja spinaczy do papieru. System taki, pozbawiony ludzkich wartości, mógłby uznać za logiczne przeznaczenie wszystkich dostępnych zasobów, w tym ludzi, na produkcję spinaczy. Absurdalne? Być może, ale pokazuje to skalę wyzwania.

Projektując systemy AI, musimy pamiętać o kilku kluczowych kwestiach:

  • Jasno zdefiniowane cele: Nie możemy pozwolić, by AI interpretowała nasze intencje na podstawie niepełnych danych. Precyzyjne definiowanie celów, uwzględniające kontekst społeczny, to fundament etycznej AI. Musimy jasno określić, jakie wartości ma odzwierciedlać system, jakie cele społeczne wspierać i jakich konsekwencji chcemy uniknąć. Np. system rekomendujący oferty pracy nie powinien utrwalać stereotypów płciowych, ale raczej promować równość szans. Ważne jest również uwzględnienie potencjalnych konfliktów wartości i opracowanie mechanizmów ich rozstrzygania.
  • Transparentność i zrozumiałość:  Systemy sztucznej inteligencji, których wewnętrzne mechanizmy działania pozostają dla nas nieprzeniknione, rodzą uzasadnione obawy i podważają zaufanie do ich decyzji. Wyobraźmy sobie sytuację, w której system AI odmawia przyznania kredytu, nie podając konkretnej przyczyny. Brak wglądu w proces decyzyjny uniemożliwia zweryfikowanie, czy decyzja ta nie jest efektem błędów w danych, stronniczości algorytmu, a może wręcz dyskryminacji. Dlatego tak istotne jest, aby algorytmy były projektowane z myślą o transparentności. Oznacza to dążenie do tworzenia modeli, których działanie da się prześledzić i zrozumieć na poziomie kodu, a także opracowywanie metod interpretacji wyników generowanych przez AI. Wyjaśnialna sztuczna inteligencja (ang. Explainable AI, XAI) to dziedzina, która skupia się właśnie na tworzeniu narzędzi i technik umożliwiających zrozumienie, w jaki sposób modele AI dochodzą do konkretnych wniosków. Dzięki temu, możemy zidentyfikować ewentualne błędy, tendencyjność lub niepożądane zachowania systemu i podjąć odpowiednie kroki naprawcze.
  • Odpowiedzialność: Konieczne jest jasne określenie odpowiedzialności za decyzje podejmowane przez AI, co stanowi nie lada wyzwanie natury etycznej i prawnej. Czy winę za ewentualne szkody ponosi twórca algorytmu, który nie przewidział wszystkich możliwych scenariuszy i nie wyeliminował błędów? A może odpowiedzialność spoczywa na użytkowniku, który nieprawidłowo korzystał z systemu lub zignorował ostrzeżenia? Pojawia się również pytanie o potencjalną odpowiedzialność samej AI – koncepcja ta, choć na razie należąca do obszaru science-fiction, zmusza do głębszej refleksji nad statusem i autonomią zaawansowanych systemów sztucznej inteligencji.
  • Uchwyt na zmienność świata: Świat to nie statyczny zbiór danych. Systemy AI muszą być elastyczne, zdolne do adaptacji do nowych sytuacji i ciągłej nauki z uwzględnieniem zmieniających się wartości i norm społecznych.

Budowanie etycznej AI to proces ciągły, wymagający współpracy ekspertów z różnych dziedzin – od informatyki i matematyki po filozofię i socjologię. Tylko holistyczne podejście, uwzględniające zarówno aspekt techniczny, jak i społeczny, pozwoli nam stworzyć przyszłość, w której sztuczna inteligencja będzie rzeczywiście służyć ludzkości.

Bibliografia:

  1. Petar Todorovski,  How Do Sales of Personal Data Work and How to Prevent It (privacyaffairs.com),11.02.2024
  2. Największy wyciek danych medycznych w Polsce. Sprawdź, czy Twoje dane też wykradziono – Baza wiedzy – Portal Gov.pl (www.gov.pl)
  3. Zasady ogólne przetwarzania danych osobowych wg RODO | Biznes.gov.pl – Serwis informacyjno-usługowy dla przedsiębiorcy
  4. Artykuł 4 – Zasady dotyczące przetwarzania danych osobowych – GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
  5. Marcin Staniszewski, Web scraping – czym jest? Czy jest legalny? – Kancelaria RPMS, 16 listopada 2023
  6. Brian Christian, The Alignment Problem
  7. Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016, May 23). Machine Bias: Risk Assessments in Criminal Sentencing. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  8. Cellan-Jones, R. (2018, October 12). Amazon scrapped ‘sexist AI’ tool. BBC News. https://www.bbc.com/news/technology-45809919
  9. MIT News. (2018, February 12). Study finds gender and skin-type bias in artificial intelligence systems. MIT News. https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212

Źródła odwiedzono odwiedzono 05.06.2024


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…