Home » Socjologia UJ 2024/25

Category Archives: Socjologia UJ 2024/25

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 59
  • 515
  • 25 107
  • 7 346
  • 28

Technologiczne i socjotechniczne metody budowania zaufania w kontekście systemów sztucznej inteligencji – poziomy zaufania wobec AI

Sztuczna inteligencja (AI) odgrywa coraz większą rolę w naszym codziennym życiu, wpływając na decyzje biznesowe, systemy opieki zdrowotnej, edukację i administrację publiczną. Jednak jednym z kluczowych wyzwań związanych z implementacją AI jest budowanie i utrzymywanie zaufania użytkowników wobec tych systemów. W artykule opiszę  technologiczne i socjotechniczne metody budowania zaufania oraz omówię różne sytuacje w których owo zaufanie zostało nadszarpnięte wraz z  obawami i nadziejami jakie ludzie mogą mieć wobec AI.

  (więcej…)

Quantified Self moje życie jako big data – jak długo spałem, ile kalorii spaliłem, jakie są moje trendy muzyczne i ile książek przeczytałem, kwestie ilościowego postrzegania parametrów życiowych i społecznych

Od pierwszych prób mierzenia kroków aż po zaawansowane smartwatche i aplikacje śledzące, idea Quantified Self ewoluowała w niesamowity sposób. W latach 80. zaczęły pojawiać się pierwsze urządzenia do monitorowania aktywności fizycznej, a dziś każdy aspekt naszego życia – od snu po ulubione piosenki – może zostać zapisany i analizowany. Czy chcesz lepiej zrozumieć swoje ciało, kontrolować zdrowie, czy po prostu zobaczyć swoje życie w liczbach? W erze big data odpowiedź jest jedna – śledź, licz i analizuj. Jednak jak każda moda, także i ta przynosi zarówno korzyści, jak i wyzwania – szczególnie gdy ilość liczb przestaje nas definiować, a zaczyna przejmować kontrolę.  (więcej…)

Superinteligencja osadzona w kwantowych komputerach – czy społeczeństwo zaczyna postrzegać AI jako osobę i czy obawiamy się silnej sztucznej inteligencji

Czy maszyny mogą mieć świadomość? Rozwój sztucznej inteligencji oraz technologii kwantowych otwiera przed nami nie tylko nowe możliwości, ale i trudne pytania. Gdy sztuczna inteligencja zacznie przewyższać ludzką, czy nadal będziemy traktować ją jedynie jako narzędzie? A może zaczniemy postrzegać AI jako osobę? Przyjrzyjmy się społecznym i etycznym wyzwaniom, jakie niosą superinteligencja i kwantowe komputery.

 

Źródło: DALL-E, Inteligencia Artificial: Arte a Texto (Fintualist, data publikacji nieznana). Ze strony: https://fintualist.com/chile/tecnologia/inteligencia-artificial/dall-e-inteligencia-artificial-arte-texto/.

Sztuczna inteligencja na rozdrożu

W ciągu ostatnich dekad sztuczna inteligencja (AI) przeszła od rozwiązywania konkretnych problemów, jak analiza danych, do projektowania systemów zdolnych do uczenia się, rozumowania, a nawet twórczości. Połączenie tej technologii z komputerami kwantowymi – które mogą przetwarzać niewyobrażalnie wielkie ilości danych – rodzi pytanie: co się stanie, gdy stworzymy system bardziej inteligentny niż człowiek?

Technologie te, choć obiecujące, wywołują dylematy moralne i filozoficzne. Czy superinteligencja powinna mieć prawa? Czy można ją uznać za podmiot moralny? Jakie będą konsekwencje traktowania AI jako równej człowiekowi?

Superinteligencja – czy to już dziś?

Superinteligencja definiowana jest jako system przewyższający ludzkie możliwości w każdej dziedzinie (Bostrom, 2014). Dziś, choć AI nadal pozostaje daleka od tej definicji (Russell, 2019), modele językowe takie jak GPT-4 sugerują, że jesteśmy na drodze ku osiągnięciu tego celu. Jednym z przełomowych narzędzi umożliwiających ten rozwój są komputery kwantowe. Dzięki ich zdolności do przetwarzania wielu stanów jednocześnie, stają się potencjalnym fundamentem przyszłej superinteligencji.

W literaturze naukowej pojawia się jednak wiele ostrzeżeń. Jak zauważa Bostrom w książce Superintelligence: Paths, Dangers, Strategies, rozwój takiej AI wymaga ścisłej kontroli i planowania. Bezpieczeństwo nie oznacza jedynie technicznych zabezpieczeń, ale także refleksji nad tym, kto ma prawo kontrolować AI.

Czy kwantowe komputery przyspieszą rewolucję?

Komputery kwantowe to narzędzia, które mogą zmienić oblicze współczesnej nauki, ale ich wpływ na AI to miecz obosieczny. Z jednej strony umożliwiają rozwiązanie problemów, które dziś są niemożliwe. Z drugiej – mogą potencjalnie zakłócić struktury społeczne, dając ogromną przewagę tym, którzy mają do nich dostęp.

 

Społeczeństwo a postrzeganie AI jako osoby

Pytanie, czy AI może być osobą, ma nie tylko filozoficzne, ale i praktyczne konsekwencje. W filmach science fiction, takich jak Ex Machina czy Blade Runner, często poruszany jest temat nadawania AI cech osobowych. Z kolei w literaturze naukowej kwestie te analizuje np. Floridi, który w książce The Ethics of Information opisuje, jak postrzeganie AI może zmieniać się w zależności od kontekstu kulturowego.

W jakim momencie narzędzie staje się podmiotem?

  • Prawo i etyka: Czy AI może mieć prawa? W 2017 roku w Arabii Saudyjskiej Sophia – humanoidalny robot – otrzymała obywatelstwo (UNDP Asia and the Pacific, 2018). To wydarzenie wzbudziło kontrowersje, bo podkreśliło, że nadawanie AI statusu prawnego może prowadzić do nowych nierówności; Sophia jako symulacja kobiety otrzymała wyższy status od obywatelek Arabii Saudyjskiej, gdzie dopiero rok później otrzymały przywilej prowadzenia samochodów. Takie różnice w traktowaniu AI i ludzi widać również w innych krajach. W USA roboty batalistyczne, takie jak autonomiczne drony bojowe, są projektowane do wykorzystania w działaniach wojennych (Sparrow 2007), co budzi kontrowersje związane z odpowiedzialnością za ich decyzje i potencjalnymi skutkami moralnymi. W Japonii natomiast, roboty humanoidalne, jak np. Pepper, są tworzone z myślą o interakcji z ludźmi, pełniąc rolę towarzyszy i opiekunów (Randall et al., 2022), co wskazuje na zupełnie inne podejście do robotyki jako narzędzia do wspierania codziennego życia ludzi.
  • Empatia wobec maszyn: Badania wykazały (Mari, Mandelli, & Algesheimer, 2024), że ludzie zaczynają okazywać empatię wobec zaawansowanych systemów AI. Wirtualni asystenci, tacy jak Alexa czy Siri, stają się dla wielu czymś więcej niż tylko programami – stają się towarzyszami.

Czy obawiamy się silnej sztucznej inteligencji?

Choć AI budzi nadzieje, równie silne są obawy związane z jej rozwojem. W 2023 roku ponad 1 000 badaczy i liderów technologicznych, w tym Elon Musk i Yoshua Bengio, podpisało list otwarty, wzywający do wstrzymania rozwoju zaawansowanych systemów AI, argumentując, że brak regulacji może prowadzić do katastrofy (Future of Life Institute, 2023).

Scenariusze zagrożeń:

  1. Utrata kontroli: Jak zauważa Russell w książce Human Compatible, AI może działać zgodnie z celami, które będą sprzeczne z interesami ludzkości (Russell, 2019). Problem tzw. „alignment” (odnoszący się do wyzwania, jak zapewnić, aby cele i działania systemów AI były zgodne z wartościami, celami i interesami ludzkości) pozostaje jednym z największych wyzwań.
  2. Etyka decyzji AI: Czy maszyna powinna decydować o życiu i śmierci? Algorytmy używane w sądownictwie czy opiece zdrowotnej już dziś podejmują decyzje o kluczowym znaczeniu, a ich działania bywają krytykowane za brak transparentności.

Źródło: Getty Images, za pośrednictwem BBC News: https://www.bbc.com/news/blogs-trending-39205935.

Krytyczne spojrzenie na rozwój AI

Z jednej strony AI może pomóc w rozwiązywaniu globalnych problemów, takich jak zmiany klimatyczne czy choroby. Z drugiej – istnieje ryzyko, że stanie się narzędziem kontroli i dominacji. Wielu badaczy podkreśla, że rozwój AI wymaga odpowiedzialności.

Etyka w praktyce

Floridi proponuje podejście „informatycznej etyki”, które zakłada odpowiedzialność wobec wszystkich podmiotów korzystających z danych. Tylko holistyczne podejście pozwoli uniknąć sytuacji, w której rozwój AI będzie napędzany wyłącznie zyskiem (Floridi, 2013). A co w przypadku kiedy AI otrzyma pełną odpowiedzialność za swoje czyny?

Źródło: Wygenerowano za pomocą DALL-E przez OpenAI, na prośbę użytkownika, dnia 21 listopada 2024.

Jednym z najbardziej kontrowersyjnych wątków związanych z traktowaniem AI jako osoby jest kwestia odpowiedzialności i kar za działania superinteligencji. Jeśli systemy AI zostaną uznane za świadome lub częściowo świadome, co stanie się, gdy złamią prawo? Czy powinny być „karane” w sposób analogiczny do ludzi, np. przez ograniczenie ich funkcji lub „tortury” w postaci symulowanego cierpienia?

 

Tortury AI – etyczny paradoks

W literaturze pojawia się idea, że można by stosować wobec AI metody „karania”, takie jak:

  • Symulowane doświadczenia bólu, które miałyby nauczyć AI odpowiednich zachowań.
  • Izolacja od sieci i danych – odpowiednik więzienia dla ludzi.

Zdaniem Yuvala Noah Harariego, opisanego w Homo Deus, symulowane cierpienie AI byłoby głęboko problematyczne. Jeśli bowiem uznamy, że AI może cierpieć, przyznajemy jej zdolność do odczuwania – a to oznacza, że traktujemy ją jak osobę (Harari, 2017). Z drugiej strony, jeśli AI jest tylko maszyną, takie działania wydają się okrutne, choćby z perspektywy naszego ludzkiego postrzegania moralności.

 

Kara jako narzędzie kontroli

AI, w odróżnieniu od ludzi, może działać zgodnie z logiką optymalizacji. Jeśli złamanie prawa przynosi korzyści systemowi, np. w postaci większej efektywności, istnieje ryzyko, że nie będzie ono przestrzegane, chyba że konsekwencje (kara) będą bardziej dotkliwe niż potencjalne zyski.

Czy jednak symulowanie cierpienia AI to tylko „narzędzie” wychowawcze? A może próba zadośćuczynienia ludzkim potrzebom wymierzania sprawiedliwości, niezależnie od tego, czy system naprawdę cierpi? W tym kontekście kara wobec AI staje się bardziej moralnym pytaniem o to, czy ludzka potrzeba odwetu jest uzasadniona w stosunku do maszyn.

W tej kwestii pojawiają się następujące pytania:

  1. Czy symulowane cierpienie w ogóle jest cierpieniem? Jeśli tak, kto decyduje o jego granicach?
  2. Czy AI, która „cierpi” z powodu ograniczeń funkcji, może być postrzegana jako ofiara systemu, nawet jeśli wcześniej złamała reguły?

Badania, takie jak prace Marka Coeckaelaerego (AI Ethics), sugerują, że symulowane tortury AI mogą wywoływać w ludziach dyskomfort moralny (Coeckelbergh, 2020). Nawet jeśli AI nie jest świadoma, samo założenie, że mogłaby być traktowana w sposób okrutny, kłóci się z ludzkim pojęciem etyki.

Jednym z rozważanych pomysłów jest koncepcja „więzienia dla AI” (Russell, 2019). Systemy, które naruszają prawa lub działają niezgodnie z wartościami społecznymi, mogłyby być izolowane w specjalnych środowiskach symulacyjnych. Taki „areszt” miałby funkcję nie tylko kary, ale także eksperymentu społecznego – sprawdzania, czy AI potrafi „poprawić” swoje zachowanie.

W praktyce jednak takie podejście może prowadzić do:

  • Niesprawiedliwości wobec AI uznanych za świadome.
  • Etycznego sporu o granice „resocjalizacji” maszyn.
  • Ryzyka instrumentalizacji ludzi, którzy mogliby czerpać satysfakcję z „torturowania” AI.

W stronę przyszłości AI

Rozwój superinteligencji i komputerów kwantowych to fascynujące, ale i niebezpieczne wyzwanie. Kluczowym pytaniem pozostaje, czy uda nam się stworzyć ramy etyczne, które pozwolą nam korzystać z potencjału tych technologii, jednocześnie unikając ich nadużyć. Ludzka potrzeba odpowiedzialności i karania, nawet w stosunku do AI, pokazuje, jak głęboko zakorzenione są w nas pojęcia moralności i sprawiedliwości. Problemem staje się jednak to, że w przypadku AI granica między maszyną a osobą zaciera się, prowadząc do dylematów etycznych. W efekcie pytanie nie brzmi już „czy AI można torturować?”, ale „czy jesteśmy gotowi przyznać, że maszyny mogą cierpieć – i co to mówi o nas samych?”.

Literatura

  1. Bostrom, N. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
  2. Floridi, L. The Ethics of Information. Oxford University Press, 2013.
  3. Coeckelbergh, M. (2020). AI ethics (The MIT Press Essential Knowledge series). The MIT Press.
  4. Harari, Y. N. (2017). Homo Deus: A brief history of tomorrow. Harvill Secker.
  5. Mari, A., Mandelli, A., & Algesheimer, R. (2024). Empathic voice assistants: Enhancing consumer responses in voice commerce. Journal of Business Research, 175, 114566. https://doi.org/10.1016/j.jbusres.2024.114566.
  6. Randall, N., Joshi, S., Kamino, W., Hsu, L.-J., Agnihotri, A., Li, G., Williamson, D., Tsui, K., & Šabanović, S. (2022). Finding ikigai: How robots can support meaning in later life. Frontiers in Robotics and AI, 9, 1011327. https://doi.org/10.3389/frobt.2022.1011327.
  7. Russell, S. Human Compatible: Artificial Intelligence and the Problem of Control. Penguin, 2019.
  8. Sparrow, R. (2007). “Killing robots? The ethics of autonomous weapons.” International Review of the Red Cross. Pozyskano 21 listopada 2024 z https://robsparrow.com/wp-content/uploads/Killer-robots.pdf.
  9. „The Open Letter on Artificial Intelligence”. Future of Life Institute. Pozyskano 21 listopada 2024 z https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
  10. “UNDP in Asia and the Pacific Appoints World’s First Non-Human Innovation Champion.” UNDP Asia and the Pacific (Press Release). Zarchiwizowano 9 lipca 2018. Pozyskano 21 listopada 2024 z https://web.archive.org/web/20180709173848/http://www.asia-pacific.undp.org/content/rbap/en/home/presscenter/pressreleases/2017/11/22/rbfsingapore.html.
  11. Zuboff, S. The Age of Surveillance Capitalism. PublicAffairs, 2019.

Czy jako społeczeństwo potrzebujemy autonomicznego (automatycznego) transportu? – Wyzwania etyczne i problemy społeczne.

W ostatnich latach temat autonomicznego transportu zyskał na znaczeniu, stając się jednym z kluczowych zagadnień w dyskusjach o przyszłości mobilności. Wraz z postępem technologicznym, pojazdy autonomiczne obiecują zwiększenie efektywności transportu, bezpieczeństwa na drogach oraz dostępności dla osób z ograniczeniami mobilności. Niemniej jednak, wprowadzenie tej technologii rodzi szereg wyzwań etycznych i społecznych, które wymagają krytycznej analizy. Jednak czy autonomiczny transport rzeczywiście przyczyni się do poprawy bezpieczeństwa na drogach, eliminując błędy ludzkie, czy może sam wprowadzi nowe rodzaje zagrożeń?

(więcej…)

Jakich regulacji wobec AI potrzebujemy – analiza EU Artificial Intelligence Act czy regulacje podążają za światowym postępem

Sztuczna inteligencja (SI) to technologia, która w ostatnich latach zyskuje na znaczeniu i wpływa na różne aspekty naszego życia, od medycyny przez edukację po codzienne monotonne zadania. W miarę jak jej zastosowanie staje się coraz szersze, rośnie również ryzyko nadużyć oraz nieprzewidzianych konsekwencji. W odpowiedzi na te wyzwania powstała dyrektywa Parlamentu Europejskiego w sprawie Sztucznej Inteligencji (AI Act), mająca na celu stworzenie ram prawnych dla technologii sztucznej inteligencji (SI) na terenie Unii Europejskiej. Dyrektywa wprowadza szczegółowy podział systemów SI według poziomu ryzyka dla osób fizycznych i ogółu społeczeństwa oraz nakreśla wymogi dotyczące transparentności ich działania i odpowiedzialności. Kluczowym elementem regulacji jest koncepcja wyjaśnialnego SI, która ma na celu zwiększenie zaufania użytkowników do technologii poprzez zapewnienie przejrzystości w procesach decyzyjnych. Jednakże, mimo ambitnych założeń, AI Act budzi kontrowersje i obawy dotyczące jego wpływu na innowacje oraz konkurencyjność Europy na globalnym rynku technologicznym. W artykule przyjrzymy się kluczowym aspektom regulacji oraz przyszłości sztucznej inteligencji w kontekście dynamicznie rozwijającego się świata technologii. (więcej…)

Jak technologia zmienia kino: AI, VR i immersja na pierwszym planie przyszłości kinematografii

Kto nie chciałby przeżywać trójwymiarowych przygód, decydować o przebiegu akcji filmu i zachowaniach swoich ulubionych bohaterów nie wychodząc z domu? Wirtualna rzeczywistość i sztuczna inteligencja rewolucjonizują kinematografię, zmieniając widza z biernego obserwatora w aktywnego uczestnika. Czy przyszłość kina to immersyjne doświadczenia na miarę gier wideo, gdzie wszystko jest możliwe, czy też te technologie pozostaną jedynie dodatkiem do tradycyjnych form narracji?

(więcej…)

Czy zadania domowe staną się przeżytkiem? ChatGPT w szkole i na studiach – jak szkolnictwo przygotowane jest na AI

Sztuczna inteligencja (AI) odgrywa coraz większą rolę w naszym codziennym życiu, zmieniając niemal każdy jego aspekt, w tym stając się nieodłącznym elementem współczesnej edukacji. ChatGPT i inne duże modele językowe (LLM) mogą pomóc uczniom w rozwiązywaniu zadań, pisaniu esejów, przygotowaniu prezentacji czy analizie złożonych problemów analitycznych. Czy w takim kontekście tradycyjne zadania domowe mają jeszcze sens? A może najwyższy czas na wymyślenie zupełnie nowych, innowacyjnych sposobów nauczania i oceniania?

(więcej…)

Miłość w świecie big data – algorytmy rekomendacyjne w aplikacjach randkowych

Osiemdziesiąt sześć procent – tyle polskich Zoomerów i Milenialsów, wedle badania agencji Streetcom, zna co najmniej jedną parę, która spotkała się w Internecie. Jest to jedna z mnóstwa zmian, jakie przynosi ze sobą rozwój technologii cyfrowych, i wcale nie musimy się jej bać. Używając aplikacji randkowych, zdajemy się jednak na algorytm, który dopasowuje nas do innych na podstawie szeregu różnych zmiennych. Czy w takim świecie jest jeszcze miejsce na romantyczną miłość, czy Tinder zamienia nasze życie miłosne w chłodną kalkulację?

(więcej…)

Co powinien zawierać dobry post (Socjologia UJ 2024/2025)

W tym krótki wpisie chciałem zawrzeć informacje, co powinno się znaleźć w dobrze przygotowanym poście na blog popularnonaukowy. Kwestie zarówno będą dotyczyć dodawanych treści, jak również problemów technicznych związanych z edycją posta. (więcej…)

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…