Home » Posts tagged 'AI'
Tag Archives: AI
Budowanie zaufania do cyfrowych lekarzy – jak projektować systemy AI wspomagające diagnozę medyczną, aby użytkownicy mieli do nich większe zaufanie
Współczesna medycyna znajduje się u progu przełomu, którego siłą napędową jest dynamiczny rozwój sztucznej inteligencji (AI). Systemy AI coraz śmielej wkraczają w obszar opieki zdrowotnej – wspierając proces diagnostyczny, umożliwiając personalizację terapii oraz usprawniając funkcjonowanie całego systemu ochrony zdrowia. Liczba zatwierdzonych do użytku klinicznego urządzeń medycznych opartych na AI systematycznie rośnie – do sierpnia 2024 roku Amerykańska Agencja ds. Żywności i Leków (FDA) wydała zgodę na wdrożenie 950 takich rozwiązań.
Sztuczna inteligencja, której możesz zaufać – wyjaśnialność decyzji w praktyce biznesowej
W erze dynamicznego rozwoju sztucznej inteligencji coraz więcej firm sięga po algorytmy do podejmowania decyzji finansowych, analizy ryzyka czy obsługi klientów. Szczególnie w sektorze bankowym i transakcyjnym AI zaczyna odgrywać kluczową rolę w procesach, które jeszcze niedawno były zarezerwowane wyłącznie dla ludzi. Jednak wraz z rosnącym wpływem maszyn na decyzje o kredytach, inwestycjach czy wykrywaniu nadużyć, pojawia się fundamentalne pytanie: czy możemy zaufać decyzjom podejmowanym przez algorytmy, których działania często nie rozumiemy?
Zaufanie do AI nie powstaje samo – trzeba je aktywnie budować. Kluczowym elementem tego procesu jest wyjaśnialność decyzji podejmowanych przez systemy – czyli zdolność do zrozumienia, dlaczego algorytm podjął taką, a nie inną decyzję. W tym wpisie przyjrzymy się, jak budować transparentne, zrozumiałe i etyczne systemy AI w biznesie, ze szczególnym uwzględnieniem sektora bankowego i finansowego.
Pokemony w kościele, rolka na Insta z Auschwitz, Tik-Tok przy 240 km/h na A4 – jak technicznie przy wykorzystaniu AI i nie tylko oraz instytucjonalnie wpływać na użytkowników by w niektórych sytuacjach nie korzystali z aplikacji
Czy można grać w Pokemony w kościele, kręcić rolki w miejscu pamięci o zagładzie lub nagrywać Tik-Toka na autostradzie, prowadząc z nadmierną prędkością?
Technicznie: tak.
Etycznie i społecznie: problematyczne.
Postęp technologiczny, głównie napędzany przez mobilne aplikacje i sztuczną inteligencję, z jednej strony otwiera nowe możliwości, z drugiej zaś zmusza do refleksji nad granicami wolności i odpowiedzialności. Czy technologia może pomóc nam hamować nasze nieodpowiedzialne impulsy? Jak instytucjonalnie i informatycznie możemy kształtować odpowiedzialne korzystanie z narzędzi cyfrowych?
Zapobieganie przemocy domowej z wykorzystaniem danych kontekstowych i dźwięków z urządzeń mobilnych
Przemoc domowa pozostaje poważnym problemem społecznym, często ukrytym za zamkniętymi drzwiami. Według danych polskiej policji, w 2023 roku ofiarami przemocy domowej w Polsce było ponad 77,8 tys. osób, a liczba zidentyfikowanych sprawców przekroczyła 63 tys. – przy czym aż 74% ofiar stanowiły kobiety. Statystyki te pokazują skalę zjawiska i pilną potrzebę skutecznego przeciwdziałania. Jednym z innowacyjnych kierunków jest wykorzystanie nowych technologii – w szczególności powszechnie dostępnych smartfonów, inteligentnych głośników i innych urządzeń mobilnych – do automatycznej identyfikacji sytuacji zagrożenia przemocą domową. Urządzenia te, wyposażone w mikrofony oraz różnorodne czujniki, mogą pełnić rolę „cichych świadków” zdarzeń, wychwytując dźwięki przemocy (np. krzyki, odgłosy uderzeń) i dane kontekstowe (np. gwałtowne przyspieszenia, nietypową lokalizację czy porę zdarzenia) mogące wskazywać na akt przemocy.
Granica między realizmem a dziwacznością w robotach i systemach AI – ponowna analiza teorii „Uncanny Valley”
Zjawisko „uncanny valley” odnosi się do dyskomfortu lub niepokoju, jaki odczuwają ludzie w reakcji na obiekty, które są niemal – ale nie do końca – ludzkie w wyglądzie lub zachowaniu. Termin ten został wprowadzony przez japońskiego badacza Masahiro Moriego w latach 70. XX wieku, opisując wykres reakcji emocjonalnej na różne poziomy podobieństwa do człowieka. Im bardziej robot, animacja czy sztuczna inteligencja przypomina człowieka, tym bardziej jest nam przyjazna – aż do momentu, gdy staje się zbyt podobna, ale nadal nienaturalna. Wtedy reakcja staje się odwrotna – pojawia się niepokój, strach lub obrzydzenie. Efekt ten ma istotne znaczenie w robotyce, animacji komputerowej i projektowaniu interfejsów, ponieważ pokazuje, jak delikatna granica oddziela to, co realistyczne i akceptowalne, od tego, co wywołuje instynktowny lęk.
Cyfrowa nekromancja w polskim radiu
Dnia 22.10.2024 słuchacze Off Radio Kraków mieli przyjemność posłuchać wywiadu z wybitną polską poetką na temat literackiej Nagrody Nobla 2024. Nie byłoby w tym nic dziwnego, gdyby nie fakt, że dziennikarka nie istnieje, a respondentka nie żyje już od ponad dekady. (więcej…)
Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej
Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej
W erze wszechobecnych smartfonów i mediów społecznościowych, intymność stała się nie tylko łatwiejsza do uchwycenia, ale i niebezpiecznie podatna na wykorzystanie. Zjawisko znane potocznie jako „revenge porn”, czyli publikowanie prywatnych, intymnych zdjęć lub filmów bez zgody osoby na nich przedstawionej, jest brutalną formą cyfrowej przemocy, która niszczy życie, kariery i poczucie bezpieczeństwa ofiar. Dodatkowo, wraz z coraz bardziej zaawansowanymi i szeroko dostępnymi narzędziami sztucznej inteligencji, pojawiają się kolejne, niespotykane wcześniej zagrożenia, zaś samo ryzyko padnięcia ofiarą tego przestępstwa jest większe niż kiedykolwiek. Ten wpis zagłębia się w istotę problemu, jego historię i kontekst społeczny. Analizujemy również istniejące i potencjalne mechanizmy – zarówno instytucjonalne, jak i technologiczne – mające na celu identyfikację, ograniczanie oraz przeciwdziałanie tej formie nadużycia, a także wskazujemy, jak realnie wspierać osoby dotknięte tą traumą.
Identyfikacja i oznaczanie grafiki generowanej przez AI – od znaków wodnych po zaawansowane algorytmy głębokiego uczenia.
Czy to jeszcze człowiek, czy już maszyna? Po co oznaczać obrazy generowane przez AI i jak działa ich wykrywanie?
W dobie generatywnej sztucznej inteligencji granica między grafiką tworzoną przez człowieka a obrazem wygenerowanym przez algorytmy coraz bardziej się zaciera. W odpowiedzi na to wyzwanie powstaje wiele technologii mających na celu oznaczanie i wykrywanie treści syntetycznych. Dlaczego to takie ważne? Bo chodzi o ochronę praw autorskich, walkę z dezinformacją i budowanie zaufania do cyfrowych treści.
Dlaczego oznaczanie obrazów AI jest potrzebne?
-
Ochrona przed wykorzystaniem do treningu bez zgody
Twórcy nie chcą, by ich prace były wykorzystywane do trenowania AI bez ich wiedzy. Oznaczenia pomagają zidentyfikować pochodzenie grafiki i chronić oryginalność dzieła.
-
Przeciwdziałanie manipulacjom
Obrazy mogą być przerabiane i wykorzystywane do dezinformacji, np. w deepfake’ach czy fałszywych wiadomościach. Informacja o ich sztucznym pochodzeniu zmniejsza ryzyko nadużyć.
-
Oznaczanie i określanie obrazów wygenerowanych przez AI
Wprowadzenie jednoznacznych oznaczeń (np. znaków wodnych) oraz technologii detekcji pozwala odbiorcom rozpoznać treści stworzone przez sztuczną inteligencję i podejmować świadome decyzje jako odbiorcy.
Revenge porn – co zrobić krok po kroku? Wykorzystanie AI do ograniczenia dalszego rozpowszechniania materiałów.
Wprowadzenie
Revenge porn, czyli nieautoryzowane rozpowszechnianie intymnych materiałów (głównie zdjęć lub filmów) bez zgody osoby przedstawionej, to coraz powszechniejszy problem w erze cyfrowej. Termin ten odnosi się zarówno do sytuacji, w których były partner publikuje kompromitujące treści w Internecie z zamiarem zemsty, jak i do szerszych form niekonsensualnej pornografii. W ostatnich latach zjawisko to przybrało na sile z uwagi na rosnącą dostępność technologii, mediów społecznościowych i chmury obliczeniowej, co umożliwia natychmiastowe powielanie i rozpowszechnianie materiałów na całym świecie. (więcej…)
DeepFake jako narzędzie wojny hybrydowej – sposoby wykorzystania, przykłady oraz etyka „sprawiedliwej wojny” w kontekście nowych technologii.
Wojny na miecze ustąpiły miejsca wojnom na karabiny, te z kolei bombom – ale czy nadchodzi era wojen informacyjnych, w których bronią są obrazy i dźwięki, a nie proch i stal? Technologia rozwija się nie tylko w codziennym użytku, lecz również w obszarze konfliktów zbrojnych.
W tym wpisie nie skupimy się na tradycyjnym sprzęcie wojskowym, lecz na nowym, coraz powszechniej wykorzystywanym narzędziu prowadzenia wojny – technologii DeepFake i jej zastosowaniu w dezinformacji oraz propagandzie w kontekście wojny hybrydowej. (więcej…)
Benchmarking w analizie wielkich modeli językowych – wykrywanie biasów dotyczących płci, rasy, narodowości oraz preferencji seksualnych w generowanych treściach
Wielkie modele językowe (LLM – Large Language Models, takie jak GPT, Gemini czy Claude) odgrywają coraz większą rolę w komunikacji, edukacji, biznesie, badaniach naukowych i wielu innych obszarach życia codziennego. Algorytmy sztucznej inteligencji coraz częściej wpływają na decyzje mające realne konsekwencje społeczne. W związku z tym, oprócz oceny ich skuteczności i funkcjonalności, rośnie potrzeba analiza uprzedzeń (biasów) obecnych w generowanych treściach — dotyczących płci, rasy, narodowości oraz preferencji seksualnych.
Deepfake w pornografii — skala zjawiska, konsekwencje prawne i technologie przeciwdziałania
Rozwój sztucznej inteligencji otworzył przed ludzkością nowe możliwości, ale jednocześnie stworzył zagrożenia, których skali jeszcze do niedawna nikt nie przewidywał. Jednym z najbardziej niepokojących zjawisk jest wykorzystywanie technologii deepfake do tworzenia fałszywej pornografii z udziałem niczego nieświadomych osób, zarówno celebrytów, jak i zwykłych ludzi. Skala tego procederu rośnie lawinowo, a prawo w wielu krajach wciąż nie nadąża za tempem zmian.
(więcej…)
Identyfikacja fake newsów w sieci na podstawie analizy tekstu – metody wykrywania i oznaczania nieprawdziwych informacji
Czym są fake newsy i dlaczego są niebezpieczne?
Fake newsy, czyli fałszywe informacje rozpowszechniane w formie wiadomości, to celowo wprowadzające w błąd treści, które podszywają się pod wiarygodne źródła. Ich forma może być różnorodna: od całkowicie zmyślonych artykułów, poprzez zmanipulowane cytaty, po wyrwane z kontekstu fakty. (więcej…)
Identyfikacja fake newsów w mediach społecznościowych – strategie wykrywania, klasyfikacji i oznaczania dezinformacji
Fake newsy to fałszywe lub wprowadzające w błąd informacje. Ich publikacja nie jest nowym zjawiskiem. Wraz ze wzrostem znaczenia środków masowego przekazu dezinformacja także zyskała na znaczeniu. W dobie internetu dostępne są bezprecedensowe możliwości rozprzestrzenianiu fake newsów. Sieci botów na mediach społecznościowych mogą z wykorzystaniem sztucznej inteligencji tanio generować rzędy wielkości więcej treści niż normalni użytkownicy w celu wybranym przez osobę lub organizację nimi zarządzającą.
(więcej…)
Identyfikacja i oznaczanie muzyki generowanej przez AI – wyzwania i rozwiązania w zakresie znakowania oraz rozpoznawania treści.
Muzyka generowana przez sztuczną inteligencję staje się coraz bardziej obecna w kulturze, często nieodróżnialna od dzieł ludzkich kompozytorów. To rodzi nowe pytania o transparentność, prawa autorskie i ochronę twórczości. Jak rozpoznać utwór stworzony przez algorytm? Jak skutecznie oznaczać takie treści na platformach streamingowych i w katalogach muzycznych? W tym tekście przyglądamy się aktualnym wyzwaniom, najnowszym technologiom oraz inicjatywom mającym na celu wprowadzenie jasnych zasad znakowania i rozpoznawania muzyki AI.
Gdy maszyna nauczy się słuchać tak jak człowiek, zaczyna też tworzyć muzykę, która trafia do ludzkiej wrażliwości. François Pachet, pionier AI w muzyce
Analiza śladu cyfrowego w mediach społecznościowych z wykorzystaniem narzędzi AI i data science – monitorowanie zdrowia psychicznego użytkowników: możliwości i zagrożenia
W erze nieustannego połączenia z internetem i rosnącej dominacji mediów społecznościowych, nasze cyfrowe życie staje się nie tylko odbiciem codzienności, ale i źródłem cennych informacji o naszym samopoczuciu. To, co publikujemy, jak często wchodzimy w interakcje, jakie treści konsumujemy – wszystko to składa się na nasz cyfrowy ślad, który może zdradzać więcej o naszym stanie psychicznym, niż moglibyśmy się spodziewać. (więcej…)
Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – odczytywanie emocji z mikroekspresji twarzy: możliwości, ograniczenia oraz wyzwania etyczne związane z prywatnością.
Coraz częściej pojawiają się narzędzia oparte na sztucznej inteligencji, które obiecują rozpoznawać ludzkie emocje na podstawie mimiki twarzy. Choć brzmi to atrakcyjnie – warto się na chwilę zatrzymać i zadać pytanie: czy naprawdę da się „odczytać” emocje z twarzy? Większość tych systemów opiera się na analizie powierzchownych zmian mimicznych, a mimika to nie to samo co stan wewnętrzny człowieka. Pojawiają się pytania o prywatność, wiarygodność i potencjalne nadużycia takiej technologii, co rodzi konieczność wprowadzenia odpowiednich zasad, regulacji i standardów.
Cyfrowe lustro społeczeństwa: Czy chiński system oceny obywateli może zafunkcjonować w Europie? Rola AI i Data Science w analizie zachowań w sieci
Każdego dnia zostawiamy w internecie tysiące śladów cyfrowych, które mówią o nas więcej niż sądzimy. Chiński system zaufania społecznego wykorzystuje te informacje do oceny obywateli, wpływając na ich życie zawodowe i społeczne. Czy podobny model można wdrożyć w Europie? Jaką rolę odgrywają w tym procesie sztuczna inteligencja i Data Science? (więcej…)
Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – jak systemy powinny reagować na emocje użytkownika, aby było to adekwatne i zgodne z poszanowaniem jego godności.
W dobie dynamicznego rozwoju sztucznej inteligencji coraz częściej pojawia się pytanie, jak systemy technologiczne powinny interpretować i reagować na emocje użytkowników. Inteligencja emocjonalna, od dawna badana w psychologii, oraz informatyka afektywna, zajmująca się rozpoznawaniem i odpowiedzią na ludzkie uczucia, stają się kluczowymi obszarami w projektowaniu interakcji człowieka z komputerem. Jednak wraz z możliwościami pojawiają się wyzwania – jak zapewnić, by reakcje systemów były nie tylko skuteczne, ale też etyczne, uwzględniające godność i autonomię użytkownika? I jak uniknąć manipulacji lub nadmiernej inwazyjności? (więcej…)
Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – odczytywanie emocji na podstawie reakcji fizjologicznych i zachowań (innych niż ekspresje twarzy): integracja danych, wiarygodność odczytu oraz interpretacja sygnałów i reakcje systemu
Emocje towarzyszą nam na każdym kroku – wpływają na to, co myślimy, jak działamy i jak wchodzimy w relacje z innymi. Choć przez wieki wydawały się domeną wyłącznie ludzką, dziś stajemy przed pytaniem, czy maszyny też mogą „rozumieć” emocje. Zwłaszcza w świecie, w którym sztuczna inteligencja coraz sprawniej rozpoznaje nasze potrzeby, pytanie o to, czy maszyny potrafią „wyczuć” emocje, nabiera nowego wymiaru. Co jednak, jeśli AI nie widzi twarzy – nie widzi uśmiechu, zmarszczonych brwi, zmrużonych oczu? Czy mimo to potrafi rozpoznać emocje człowieka?
[…] poprzednim artykule skupiliśmy się na seks robotach w ogólności, a także na najpopularniejszej formie tego […]