Home » Posts tagged 'sztuczna inteligencja'
Tag Archives: sztuczna inteligencja
Identyfikacja stronniczości (biasów), nieścisłości oraz błędów w dużych modelach językowych w językach nie opartych na alfabecie łacińskim (np. chińskim, japońskim, arabskim czy hindi). Identyfikacja kulturowych biasów, strategie działania z wykorzystaniem narzędzi AI dla osób nieposługujących się tymi językami
Czy naprawdę wiesz, co AI rozumie, gdy mówisz po arabsku albo japońsku?
Sztuczna inteligencja ma ambicję „rozumieć” każdy język. Ale co się stanie, gdy wpiszesz pytanie po arabsku albo japońsku, a model odpowie… kompletnie nie na temat? Problem nie polega tylko na tym, że AI się myli – ale na tym, że my nie mamy jak zweryfikować, czy ono rozumie pytanie tak, jak my je zadaliśmy.
Większość dużych modeli językowych – GPT, PaLM, Claude – była trenowana głównie na treściach anglojęzycznych. W przeglądzie danych treningowych GPT-3 oszacowano, że ponad 90% tekstów pochodziło z języków opartych na alfabecie łacińskim – głównie z angielskiego. (więcej…)
Zapobieganie przemocy domowej z wykorzystaniem danych kontekstowych i dźwięków z urządzeń mobilnych
Przemoc domowa pozostaje poważnym problemem społecznym, często ukrytym za zamkniętymi drzwiami. Według danych polskiej policji, w 2023 roku ofiarami przemocy domowej w Polsce było ponad 77,8 tys. osób, a liczba zidentyfikowanych sprawców przekroczyła 63 tys. – przy czym aż 74% ofiar stanowiły kobiety. Statystyki te pokazują skalę zjawiska i pilną potrzebę skutecznego przeciwdziałania. Jednym z innowacyjnych kierunków jest wykorzystanie nowych technologii – w szczególności powszechnie dostępnych smartfonów, inteligentnych głośników i innych urządzeń mobilnych – do automatycznej identyfikacji sytuacji zagrożenia przemocą domową. Urządzenia te, wyposażone w mikrofony oraz różnorodne czujniki, mogą pełnić rolę „cichych świadków” zdarzeń, wychwytując dźwięki przemocy (np. krzyki, odgłosy uderzeń) i dane kontekstowe (np. gwałtowne przyspieszenia, nietypową lokalizację czy porę zdarzenia) mogące wskazywać na akt przemocy.
Identyfikacja i oznaczanie grafiki generowanej przez AI – od znaków wodnych po zaawansowane algorytmy głębokiego uczenia.
Czy to jeszcze człowiek, czy już maszyna? Po co oznaczać obrazy generowane przez AI i jak działa ich wykrywanie?
W dobie generatywnej sztucznej inteligencji granica między grafiką tworzoną przez człowieka a obrazem wygenerowanym przez algorytmy coraz bardziej się zaciera. W odpowiedzi na to wyzwanie powstaje wiele technologii mających na celu oznaczanie i wykrywanie treści syntetycznych. Dlaczego to takie ważne? Bo chodzi o ochronę praw autorskich, walkę z dezinformacją i budowanie zaufania do cyfrowych treści.
Dlaczego oznaczanie obrazów AI jest potrzebne?
-
Ochrona przed wykorzystaniem do treningu bez zgody
Twórcy nie chcą, by ich prace były wykorzystywane do trenowania AI bez ich wiedzy. Oznaczenia pomagają zidentyfikować pochodzenie grafiki i chronić oryginalność dzieła.
-
Przeciwdziałanie manipulacjom
Obrazy mogą być przerabiane i wykorzystywane do dezinformacji, np. w deepfake’ach czy fałszywych wiadomościach. Informacja o ich sztucznym pochodzeniu zmniejsza ryzyko nadużyć.
-
Oznaczanie i określanie obrazów wygenerowanych przez AI
Wprowadzenie jednoznacznych oznaczeń (np. znaków wodnych) oraz technologii detekcji pozwala odbiorcom rozpoznać treści stworzone przez sztuczną inteligencję i podejmować świadome decyzje jako odbiorcy.
Revenge porn – co zrobić krok po kroku? Wykorzystanie AI do ograniczenia dalszego rozpowszechniania materiałów.
Wprowadzenie
Revenge porn, czyli nieautoryzowane rozpowszechnianie intymnych materiałów (głównie zdjęć lub filmów) bez zgody osoby przedstawionej, to coraz powszechniejszy problem w erze cyfrowej. Termin ten odnosi się zarówno do sytuacji, w których były partner publikuje kompromitujące treści w Internecie z zamiarem zemsty, jak i do szerszych form niekonsensualnej pornografii. W ostatnich latach zjawisko to przybrało na sile z uwagi na rosnącą dostępność technologii, mediów społecznościowych i chmury obliczeniowej, co umożliwia natychmiastowe powielanie i rozpowszechnianie materiałów na całym świecie. (więcej…)
DeepFake jako narzędzie wojny hybrydowej – sposoby wykorzystania, przykłady oraz etyka „sprawiedliwej wojny” w kontekście nowych technologii.
Wojny na miecze ustąpiły miejsca wojnom na karabiny, te z kolei bombom – ale czy nadchodzi era wojen informacyjnych, w których bronią są obrazy i dźwięki, a nie proch i stal? Technologia rozwija się nie tylko w codziennym użytku, lecz również w obszarze konfliktów zbrojnych.
W tym wpisie nie skupimy się na tradycyjnym sprzęcie wojskowym, lecz na nowym, coraz powszechniej wykorzystywanym narzędziu prowadzenia wojny – technologii DeepFake i jej zastosowaniu w dezinformacji oraz propagandzie w kontekście wojny hybrydowej. (więcej…)
Benchmarking w analizie wielkich modeli językowych – wykrywanie biasów dotyczących płci, rasy, narodowości oraz preferencji seksualnych w generowanych treściach
Wielkie modele językowe (LLM – Large Language Models, takie jak GPT, Gemini czy Claude) odgrywają coraz większą rolę w komunikacji, edukacji, biznesie, badaniach naukowych i wielu innych obszarach życia codziennego. Algorytmy sztucznej inteligencji coraz częściej wpływają na decyzje mające realne konsekwencje społeczne. W związku z tym, oprócz oceny ich skuteczności i funkcjonalności, rośnie potrzeba analiza uprzedzeń (biasów) obecnych w generowanych treściach — dotyczących płci, rasy, narodowości oraz preferencji seksualnych.
Deepfake w pornografii — skala zjawiska, konsekwencje prawne i technologie przeciwdziałania
Rozwój sztucznej inteligencji otworzył przed ludzkością nowe możliwości, ale jednocześnie stworzył zagrożenia, których skali jeszcze do niedawna nikt nie przewidywał. Jednym z najbardziej niepokojących zjawisk jest wykorzystywanie technologii deepfake do tworzenia fałszywej pornografii z udziałem niczego nieświadomych osób, zarówno celebrytów, jak i zwykłych ludzi. Skala tego procederu rośnie lawinowo, a prawo w wielu krajach wciąż nie nadąża za tempem zmian.
(więcej…)
Identyfikacja fake newsów w sieci na podstawie analizy tekstu – metody wykrywania i oznaczania nieprawdziwych informacji
Czym są fake newsy i dlaczego są niebezpieczne?
Fake newsy, czyli fałszywe informacje rozpowszechniane w formie wiadomości, to celowo wprowadzające w błąd treści, które podszywają się pod wiarygodne źródła. Ich forma może być różnorodna: od całkowicie zmyślonych artykułów, poprzez zmanipulowane cytaty, po wyrwane z kontekstu fakty. (więcej…)
Identyfikacja i oznaczanie muzyki generowanej przez AI – wyzwania i rozwiązania w zakresie znakowania oraz rozpoznawania treści.
Muzyka generowana przez sztuczną inteligencję staje się coraz bardziej obecna w kulturze, często nieodróżnialna od dzieł ludzkich kompozytorów. To rodzi nowe pytania o transparentność, prawa autorskie i ochronę twórczości. Jak rozpoznać utwór stworzony przez algorytm? Jak skutecznie oznaczać takie treści na platformach streamingowych i w katalogach muzycznych? W tym tekście przyglądamy się aktualnym wyzwaniom, najnowszym technologiom oraz inicjatywom mającym na celu wprowadzenie jasnych zasad znakowania i rozpoznawania muzyki AI.
Gdy maszyna nauczy się słuchać tak jak człowiek, zaczyna też tworzyć muzykę, która trafia do ludzkiej wrażliwości. François Pachet, pionier AI w muzyce
Analiza śladu cyfrowego w mediach społecznościowych – personalizacja treści i analiza preferencji użytkowników: wykorzystanie AI do optymalizacji treści reklamowych, marketingowych i edukacyjnych oraz etyczne granice wykorzystywania danych w celach komercyjnych
W dobie scrollowania i nieustannego „bycia online”, każdy nasz ruch w internecie zostawia ślad – cyfrowy odcisk palca. Polubienia, komentarze, zatrzymania wzroku na filmach i postach, kliknięcia w reklamy – wszystkie te dane są zbierane, analizowane i przetwarzane. Dzięki wykorzystaniu sztucznej inteligencji (AI), media społecznościowe potrafią nie tylko przewidzieć, co nas zainteresuje, ale też skutecznie wpływać na nasze decyzje. Gdzie kończy się wygoda personalizacji, a zaczyna manipulacja? (więcej…)
Ślad cyfrowy w rekrutacji: między profesjonalizmem a prywatnością
W dobie wszechobecnej cyfryzacji, ślad pozostawiany przez kandydatów do pracy w mediach społecznościowych staje się cennym źródłem informacji dla rekruterów. Badanie aktywności potencjalnych pracowników w sieci pozwala na weryfikację ich kompetencji, spójności z kulturą organizacyjną firmy oraz autentyczności deklarowanych umiejętności. Jednakże praktyka ta budzi poważne wątpliwości etyczne i prawne, dotyczące granic prywatności, dyskryminacji oraz jakości podejmowanych decyzji rekrutacyjnych. W niniejszym artykule dokonano analizy zjawiska cyfrowego screeningu kandydatów, przedstawiając zarówno jego potencjalne korzyści, jak i zagrożenia, a także zaproponowano rozwiązania pozwalające na etyczne wykorzystanie danych z mediów społecznościowych w procesach HR. (więcej…)
Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – reakcja systemów na negatywne emocje użytkownika
Od chwili, gdy pierwsze chatboty zaczęły odpowiadać na proste pytania, minęło zaledwie kilkanaście lat; dziś sztuczna inteligencja jest na tyle osadzona w codziennych interakcjach, że coraz częściej staje się odbiorcą naszych emocji. Zmiana skali i intymności tych relacji sprawiła, że algorytmy muszą mierzyć się nie tylko z danymi faktograficznymi, lecz także z ludzką złością, frustracją, lękiem czy zmęczeniem. Użytkownicy oczekują, że system nie pozostanie obojętny – zareaguje tak, by złagodzić napięcie, a przynajmniej go nie pogłębiać. W rezultacie główny ciężar debaty przesunął się z pytania, czy maszyny potrafią rozpoznawać stany afektywne, na pytanie, jak i z jaką odpowiedzialnością powinny odpowiadać na trudne emocje człowieka. (więcej…)
Granice biopolityki – śledzenie i analiza trendów społecznych i politycznych na podstawie interakcji użytkowników w mediach społecznościowych: wpływ na kształtowanie poglądów politycznych oraz strategie manipulacji
W dobie big data i sztucznej inteligencji media społecznościowe stały się narzędziem biopolityki – władzy nad społeczeństwem poprzez dane. Nasze polubienia, udostępnienia i komentarze służą do śledzenia trendów społecznych, a algorytmy na ich podstawie podsuwają treści, które wpływają na nasze poglądy polityczne. Wpis ten analizuje, gdzie leżą granice etyczne takiego zarządzania społeczeństwem za pomocą technologii: czy analiza danych obywateli dla celów politycznych to jeszcze wsparcie demokracji, czy już strategia manipulacji?
Wpływ interakcji dzieci z robotami na rozwój emocjonalny i społeczne kompetencje – czy długotrwałe kontakty z humanoidalnymi robotami wspierającymi edukację i opiekę nad dziećmi mogą prowadzić do osłabienia zdolności do budowania relacji międzyludzkich, czy raczej stanowią wartościowe uzupełnienie procesów wychowawczych.
Czy robot może być przyjacielem dziecka? A może nawet jego nauczycielem, opiekunem albo kimś, komu powierzy sekret? Wizja robotów zajmujących się dziećmi do niedawna wydawała się czystym science fiction. Dzisiaj taka obecność staje się coraz bardziej realna – roboty wspierają terapię, uczestniczą w edukacji, a nawet pomagają w codziennym funkcjonowaniu. Dzięki postępowi w dziedzinie sztucznej inteligencji, maszyny potrafią rozpoznawać emocje, prowadzić proste rozmowy i odpowiadać na potrzeby najmłodszych użytkowników. Wraz z rozwojem tej technologii pojawiają się jednak pytania: Czy relacja z robotem może wspierać rozwój, czy raczej go zubożyć? Poruszamy kwestie związane z potencjałem, zagrożeniami, etyką i więziami emocjonalnymi świata najmłodszych. (więcej…)
Wpływ robotyzacji na opiekę nad seniorami i osoby z niepełnosprawnościami
W obliczu starzejącego się społeczeństwa oraz rosnącej liczby osób z niepełnosprawnościami, sektor opieki zdrowotnej staje przed bezprecedensowym wyzwaniem. Niedobór wykwalifikowanych opiekunów, przeciążenie systemów ochrony zdrowia i potrzeba ciągłego monitorowania pacjentów skłaniają do poszukiwania rozwiązań w technologii. Humanoidalne roboty, takie jak terapeutyczna foka PARO, czy wirtualni asystenci opierający się na sztucznej inteligencji, stają się coraz powszechniejsze. Czy jednak maszyny zdolne do prowadzenia prostych rozmów lub podawania leków są w stanie zaspokoić głęboką potrzebę ludzkiej bliskości? A może ich rola powinna ograniczać się do wspierania opiekunów, a nie zastępowania ich? W tym wpisie przyjrzymy się konkretnym przykładom technologii w opiece, przeanalizujemy dane i zastanowimy się, gdzie przebiega granica między pomocą a izolacją. (więcej…)
Seks-roboty w natarciu. Sposoby projektowania wyglądu, zachowań i interakcji człowiek-robot w kontekście bliskiej relacji z człowiekiem. Jakie społeczne wyzwania i konsekwencje niesie za sobą rozpowszechnienie seks-robotów.
Postępujący rozwój robotyki i sztucznej inteligencji prowadzi do zastępowania ludzi przez maszyny w coraz to nowych dziedzinach i zadaniach. Mimo to pewne aspekty ludzkiego życia wydawały się nienaruszalne – strefy emocji, intymności i interakcji międzyludzkich. Jednak nawet tak osobiste i emocjonalne sfery jak seksualność mogą być polem dla postępu technologicznego, seks-roboty będące ledwo rozróżnialne od ludzi wychodzą z poziomu dywagacji i stają się powoli rzeczywistością. Rodzi to pytanie jakie konsekwencje i wpływ może mieć postęp w tych dziedzinach – czy jest to naturalna kolej rzeczy, czy też powinniśmy zacząć się bać.
Wykorzystanie sztucznej inteligencji do egzekwowania prawa i monitorowania porządku publicznego w miastach przyszłości – czy algorytmy analizujące zachowania mieszkańców i autonomiczne systemy nadzoru poprawią bezpieczeństwo, czy staną się narzędziem masowej inwigilacji i ograniczania praw obywatelskich
Miasta przyszłości tworzymy dziś. Każde wdrożenie nowej technologii to decyzja o tym, jak będzie wyglądać przestrzeń jutra – coraz bardziej inteligentna, cyfrowo zintegrowana, sterowana algorytmami. Coraz głębiej ingerująca w naszą codzienność. Czy inteligentne systemy nadzoru naprawdę uczynią miasta bezpieczniejszymi? A może przekształcą je w cyfrowe panoptikony, w których prywatność stanie się luksusem, a wolność – iluzją?
Automatyczne systemy wykrywania oszustw finansowych, a granica między prewencją, a nadużyciem prywatności: Przegląd możliwości i społeczne konsekwencje
W dzisiejszym cyfrowym świecie, gdzie transakcje finansowe odbywają się z niespotykaną dotąd prędkością i w ogromnych ilościach, oszustwa finansowe stanowią poważne zagrożenie zarówno dla przedsiębiorstw, jak i indywidualnych konsumentów. Wraz z dynamicznym rozwojem technologii cyberprzestępcy nieustannie udoskonalają swoje techniki, przez co tradycyjne metody zabezpieczeń stają się niewystarczające. W odpowiedzi na to wyzwanie coraz większą rolę odgrywają automatyczne systemy wykrywania oszustw finansowych, wykorzystujące sztuczną inteligencję (AI) i inne zaawansowane technologie. Niniejszy artykuł ma na celu przedstawienie możliwości tych systemów oraz analizę cienkiej granicy między skuteczną prewencją oszustw a nadużyciem prywatności, a także omówienie społecznych konsekwencji ich wdrożenia.
Automatyczne systemy analizy obrazów medycznych a rola radiologów w przyszłości – czy sztuczna inteligencja przejmie funkcję analizy zdjęć rentgenowskich, tomografii i rezonansu magnetycznego, czy też pozostanie jedynie narzędziem wspierającym specjalistów.
W ostatnich latach rozwój sztucznej inteligencji (SI) znacząco wpłynął na wiele dziedzin życia, w tym także na medycynę. Szczególnie istotnym obszarem, w którym SI znajduje coraz szersze zastosowanie, jest analiza obrazów medycznych – takich jak zdjęcia rentgenowskie, tomografie komputerowe (CT) oraz obrazy uzyskane za pomocą rezonansu magnetycznego (MRI). Automatyczne systemy analizy obrazów (ang. Computer-Aided Diagnosis, CADx) potrafią dziś z dużą dokładnością rozpoznawać zmiany chorobowe, wskazywać obszary podejrzane oraz wspierać lekarzy w stawianiu diagnoz. Powstaje zatem pytanie: czy w przyszłości sztuczna inteligencja całkowicie zastąpi radiologów, czy też pozostanie jedynie narzędziem wspomagającym ich pracę (Hosny et al., 2018; Topol, 2019)? (więcej…)
Cyfrowi influencerzy: Jak wirtualne gwiazdy przyszłości zdobywają świat?
Wirtualni influencerzy, tacy jak Lil Miquela czy Aitana Lopez, zdobywają miliony obserwujących na platformach społecznościowych, współpracując z renomowanymi markami i redefiniując pojęcie autentyczności w cyfrowym świecie. Czy te cyfrowe byty to przyszłość marketingu i rozrywki? Jak zaawansowane modele AI kształtują ich istnienie i wpływ na odbiorców? Odkryj, jak sztuczna inteligencja kreuje influencerów przyszłości, którzy, choć wirtualni, wywierają realny wpływ na nasze życie. (więcej…)
[…] poprzednim artykule skupiliśmy się na seks robotach w ogólności, a także na najpopularniejszej formie tego […]