Home » Posts tagged 'XAI'

Tag Archives: XAI

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 100
  • 616
  • 25 026
  • 7 315
  • 0

Jakich regulacji wobec AI potrzebujemy – analiza EU Artificial Intelligence Act czy regulacje podążają za światowym postępem

Sztuczna inteligencja (SI) to technologia, która w ostatnich latach zyskuje na znaczeniu i wpływa na różne aspekty naszego życia, od medycyny przez edukację po codzienne monotonne zadania. W miarę jak jej zastosowanie staje się coraz szersze, rośnie również ryzyko nadużyć oraz nieprzewidzianych konsekwencji. W odpowiedzi na te wyzwania powstała dyrektywa Parlamentu Europejskiego w sprawie Sztucznej Inteligencji (AI Act), mająca na celu stworzenie ram prawnych dla technologii sztucznej inteligencji (SI) na terenie Unii Europejskiej. Dyrektywa wprowadza szczegółowy podział systemów SI według poziomu ryzyka dla osób fizycznych i ogółu społeczeństwa oraz nakreśla wymogi dotyczące transparentności ich działania i odpowiedzialności. Kluczowym elementem regulacji jest koncepcja wyjaśnialnego SI, która ma na celu zwiększenie zaufania użytkowników do technologii poprzez zapewnienie przejrzystości w procesach decyzyjnych. Jednakże, mimo ambitnych założeń, AI Act budzi kontrowersje i obawy dotyczące jego wpływu na innowacje oraz konkurencyjność Europy na globalnym rynku technologicznym. W artykule przyjrzymy się kluczowym aspektom regulacji oraz przyszłości sztucznej inteligencji w kontekście dynamicznie rozwijającego się świata technologii. (więcej…)

Explainable AI a generatory. W jaki sposób integrować modele wyjaśniania w systemy oparte o GPT

Wraz z dynamicznym rozwojem LLMów (Dużych Modeli Językowych), takich jak GPT (Generative Pre-trained Transformer), pojawia się cała seria pytań dotyczących ich transparentności i wyjaśnialności. Z racji na coraz większą popularność tych modeli, istnieje rosnące zapotrzebowanie na zrozumienie, dlaczego modele podejmują konkretne decyzje i jakie są mechanizmy, które leżą u ich podstaw. Co więcej, Explainable AI może odgrywać kluczową rolę w zrozumieniu podstawowych przyczyn problemów powiązanych z LLMami, takich jak halucynacje, brak aktualnej wiedzy, czy brak klarowności źródeł z których pochodzą informacje w oparciu o które wygenerowana została dana odpowiedź. Warto jest więc przyjrzeć się właśnie tej stronie tych modeli, a co za tym idzie nie ufać im w ciemno i postawić sobie pytania – Jak? Skąd? i Dlaczego? (więcej…)

Explainable AI – problematyka black box i white box, ograniczenia, perspektywy.

Techniki sztucznej inteligencji niewątpliwie stwarzają ogrom możliwości – w pewnych wąskich dziedzinach algorytmy radzą już sobie lepiej od ekspertów.  Przewagę sztucznej inteligencji stanowi właśnie to, że działa w sposób fundamentalnie różny od ludzkiego rozumowania. Jednocześnie coraz więcej decyzji kształtujących życie ludzi – medycznych, sądowych, finansowych – podejmuje się z użyciem modeli AI. Jak wykorzystać potęgę sztucznej inteligencji tam, gdzie jej decyzje muszą być dla nas zrozumiałe? Rozwiązanie tego problemu jest celem nurtu explainable AI (więcej…)

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…