3 czerwca, 2025 / Leave a comment
Dnia 22.10.2024 słuchacze Off Radio Kraków mieli przyjemność posłuchać wywiadu z wybitną polską poetką na temat literackiej Nagrody Nobla 2024. Nie byłoby w tym nic dziwnego, gdyby nie fakt, że dziennikarka nie istnieje, a respondentka nie żyje już od ponad dekady. (więcej…)
3 czerwca, 2025 / Leave a comment
Revenge porn – jak technologia i prawo mogą chronić ofiary cyfrowej przemocy intymnej
W erze wszechobecnych smartfonów i mediów społecznościowych, intymność stała się nie tylko łatwiejsza do uchwycenia, ale i niebezpiecznie podatna na wykorzystanie. Zjawisko znane potocznie jako „revenge porn”, czyli publikowanie prywatnych, intymnych zdjęć lub filmów bez zgody osoby na nich przedstawionej, jest brutalną formą cyfrowej przemocy, która niszczy życie, kariery i poczucie bezpieczeństwa ofiar. Dodatkowo, wraz z coraz bardziej zaawansowanymi i szeroko dostępnymi narzędziami sztucznej inteligencji, pojawiają się kolejne, niespotykane wcześniej zagrożenia, zaś samo ryzyko padnięcia ofiarą tego przestępstwa jest większe niż kiedykolwiek. Ten wpis zagłębia się w istotę problemu, jego historię i kontekst społeczny. Analizujemy również istniejące i potencjalne mechanizmy – zarówno instytucjonalne, jak i technologiczne – mające na celu identyfikację, ograniczanie oraz przeciwdziałanie tej formie nadużycia, a także wskazujemy, jak realnie wspierać osoby dotknięte tą traumą.
(więcej…)
3 czerwca, 2025 / Leave a comment
Czy to jeszcze człowiek, czy już maszyna? Po co oznaczać obrazy generowane przez AI i jak działa ich wykrywanie?
W dobie generatywnej sztucznej inteligencji granica między grafiką tworzoną przez człowieka a obrazem wygenerowanym przez algorytmy coraz bardziej się zaciera. W odpowiedzi na to wyzwanie powstaje wiele technologii mających na celu oznaczanie i wykrywanie treści syntetycznych. Dlaczego to takie ważne? Bo chodzi o ochronę praw autorskich, walkę z dezinformacją i budowanie zaufania do cyfrowych treści.
Dlaczego oznaczanie obrazów AI jest potrzebne?
-
Ochrona przed wykorzystaniem do treningu bez zgody
Twórcy nie chcą, by ich prace były wykorzystywane do trenowania AI bez ich wiedzy. Oznaczenia pomagają zidentyfikować pochodzenie grafiki i chronić oryginalność dzieła.
-
Przeciwdziałanie manipulacjom
Obrazy mogą być przerabiane i wykorzystywane do dezinformacji, np. w deepfake’ach czy fałszywych wiadomościach. Informacja o ich sztucznym pochodzeniu zmniejsza ryzyko nadużyć.
-
Oznaczanie i określanie obrazów wygenerowanych przez AI
Wprowadzenie jednoznacznych oznaczeń (np. znaków wodnych) oraz technologii detekcji pozwala odbiorcom rozpoznać treści stworzone przez sztuczną inteligencję i podejmować świadome decyzje jako odbiorcy.
(więcej…)
3 czerwca, 2025 / Leave a comment
Wprowadzenie
Revenge porn, czyli nieautoryzowane rozpowszechnianie intymnych materiałów (głównie zdjęć lub filmów) bez zgody osoby przedstawionej, to coraz powszechniejszy problem w erze cyfrowej. Termin ten odnosi się zarówno do sytuacji, w których były partner publikuje kompromitujące treści w Internecie z zamiarem zemsty, jak i do szerszych form niekonsensualnej pornografii. W ostatnich latach zjawisko to przybrało na sile z uwagi na rosnącą dostępność technologii, mediów społecznościowych i chmury obliczeniowej, co umożliwia natychmiastowe powielanie i rozpowszechnianie materiałów na całym świecie. (więcej…)
2 czerwca, 2025 / Leave a comment
Identyfikacja i oznaczanie filmów generowanych przez AI – technologie wykrywania i ich skuteczność
Deepfake’i – jeszcze niedawno kojarzyły się głównie z efektami specjalnymi w filmach science fiction. Dziś jednak ta technologia wchodzi do naszej codzienności – często niepostrzeżenie. Dzięki wykorzystaniu sztucznej inteligencji możliwe stało się tworzenie niezwykle realistycznych obrazów, nagrań wideo i dźwięku, które wyglądają i brzmią jak prawdziwe, choć w rzeczywistości są całkowicie sfabrykowane. W internecie można już zobaczyć polityków wygłaszających przemówienia, których nigdy nie powiedzieli, czy celebrytów robiących rzeczy, których nigdy nie zrobili. Deepfake’i mogą bawić i imponować – ale potrafią też manipulować opinią publiczną, niszczyć reputację i siać dezinformację. W świecie, gdzie coraz trudniej odróżnić prawdę od fałszu, pytania o granice tej technologii i sposoby obrony przed jej nadużyciami stają się ważniejsze niż kiedykolwiek. (więcej…)
2 czerwca, 2025 / Leave a comment
Rozwój sztucznej inteligencji postawił świat nauki przed nowym wyzwaniem: ,,fabryki prac’’ (ang. paper mills) zalewają literaturę naukową publikacjami pozorującymi rzetelne badania. Dzięki potędze dużych modeli językowych (LLM) generowanie przekonujących – choć fałszywych – artykułów stało się łatwiejsze niż kiedykolwiek. To zjawisko podkopuje zaufanie do nauki w podobny sposób, w jaki fake newsy i deepfake’i podważają wiarygodność informacji w społeczeństwie. Główny wniosek jest jasny: bez zdecydowanych działań organizacyjnych i technologicznych ryzykujemy kryzys wiarygodności nauki na niespotykaną skalę.
(więcej…)
2 czerwca, 2025 / Leave a comment
Słaba czy silna AI, AGI i superinteligencja – raj czy zagłada?
W dobie eksplozji możliwości AI każdy z nas zadaje sobie pytanie: czy rozwój sztucznej inteligencji poprowadzi nas ku technologicznej zagładzie, czy raczej otworzy drogę do utopijnej przyszłości? W poniższym wpisie omówimy różnicę między „słabą” (wąską) a „silną” sztuczną inteligencją (AGI), wyjaśnimy pojęcie superinteligencji i osobliwości technologicznej, a także zestawimy najbardziej optymistyczne i najbardziej pesymistyczne scenariusze – od rozwiązywania problemów ludzkości po groźbę wymarcia. Bazujemy na najnowszych analizach i raportach (2023–2025), łącząc ich wyniki w wieloaspektową ocenę etycznych i społecznych konsekwencji AI. (więcej…)
27 maja, 2025 / Leave a comment
Wielkie modele językowe (LLM – Large Language Models, takie jak GPT, Gemini czy Claude) odgrywają coraz większą rolę w komunikacji, edukacji, biznesie, badaniach naukowych i wielu innych obszarach życia codziennego. Algorytmy sztucznej inteligencji coraz częściej wpływają na decyzje mające realne konsekwencje społeczne. W związku z tym, oprócz oceny ich skuteczności i funkcjonalności, rośnie potrzeba analiza uprzedzeń (biasów) obecnych w generowanych treściach — dotyczących płci, rasy, narodowości oraz preferencji seksualnych.
(więcej…)
26 maja, 2025 / Leave a comment
Rozwój sztucznej inteligencji otworzył przed ludzkością nowe możliwości, ale jednocześnie stworzył zagrożenia, których skali jeszcze do niedawna nikt nie przewidywał. Jednym z najbardziej niepokojących zjawisk jest wykorzystywanie technologii deepfake do tworzenia fałszywej pornografii z udziałem niczego nieświadomych osób, zarówno celebrytów, jak i zwykłych ludzi. Skala tego procederu rośnie lawinowo, a prawo w wielu krajach wciąż nie nadąża za tempem zmian.
(więcej…)
26 maja, 2025 / 1 komentarz do Zakłamanie historyczno-kulturowe w treściach generowanych przez AI – metody identyfikacji oraz strategie przeciwdziałania dezinformacji
Wprowadzenie
Wraz z rozwojem sztucznej inteligencji (AI), w szczególności modeli generatywnych, otworzyły się nowe możliwości tworzenia treści tekstowych, graficznych i audiowizualnych na niespotykaną wcześniej skalę. Narzędzia takie jak ChatGPT, DALL·E, Midjourney czy Sora umożliwiają generowanie obrazów, tekstów, a nawet całych filmów, bazując na prostych poleceniach użytkownika. Jednak ta demokratyzacja tworzenia treści wiąże się również z poważnym zagrożeniem — zakłamaniem historyczno-kulturowym i szerzeniem dezinformacji.
W tym artykule przyjrzymy się problemowi fałszywych lub wypaczonych reprezentacji wydarzeń historycznych i kultur w treściach generowanych przez AI. Zbadamy metody identyfikacji takich przypadków oraz strategie, które mogą pomóc w przeciwdziałaniu dezinformacji i zachowaniu integralności przekazu kulturowego.
(więcej…)
26 maja, 2025 / Leave a comment
Czym są fake newsy i dlaczego są niebezpieczne?
Fake newsy, czyli fałszywe informacje rozpowszechniane w formie wiadomości, to celowo wprowadzające w błąd treści, które podszywają się pod wiarygodne źródła. Ich forma może być różnorodna: od całkowicie zmyślonych artykułów, poprzez zmanipulowane cytaty, po wyrwane z kontekstu fakty. (więcej…)
26 maja, 2025 / Leave a comment
Fake newsy to fałszywe lub wprowadzające w błąd informacje. Ich publikacja nie jest nowym zjawiskiem. Wraz ze wzrostem znaczenia środków masowego przekazu dezinformacja także zyskała na znaczeniu. W dobie internetu dostępne są bezprecedensowe możliwości rozprzestrzenianiu fake newsów. Sieci botów na mediach społecznościowych mogą z wykorzystaniem sztucznej inteligencji tanio generować rzędy wielkości więcej treści niż normalni użytkownicy w celu wybranym przez osobę lub organizację nimi zarządzającą.
(więcej…)
26 maja, 2025 / 1 komentarz do Dyplom z chmury: Czy prace pisane przez AI to przyszłość, czy upadek nauki?
Sztuczna inteligencja zmienia oblicze akademickiej uczciwości. Tam, gdzie kiedyś plagiat oznaczał dosłowne kopiowanie cudzych prac, dziś mamy do czynienia z generatywną imitacją – zjawiskiem, w którym teksty powstają przy pomocy algorytmów, na bazie wzorców wyuczonych z milionów dokumentów. Granica między oryginalną twórczością a algorytmiczną produkcją staje się coraz bardziej płynna, a uczelnie, studenci i naukowcy stają przed nowymi dylematami: jak ocenić autorstwo, co uznać za nadużycie i gdzie przebiega linia między pomocą a oszustwem? (więcej…)
26 maja, 2025 / Leave a comment
Muzyka generowana przez sztuczną inteligencję staje się coraz bardziej obecna w kulturze, często nieodróżnialna od dzieł ludzkich kompozytorów. To rodzi nowe pytania o transparentność, prawa autorskie i ochronę twórczości. Jak rozpoznać utwór stworzony przez algorytm? Jak skutecznie oznaczać takie treści na platformach streamingowych i w katalogach muzycznych? W tym tekście przyglądamy się aktualnym wyzwaniom, najnowszym technologiom oraz inicjatywom mającym na celu wprowadzenie jasnych zasad znakowania i rozpoznawania muzyki AI.
Gdy maszyna nauczy się słuchać tak jak człowiek, zaczyna też tworzyć muzykę, która trafia do ludzkiej wrażliwości. François Pachet, pionier AI w muzyce
(więcej…)
26 maja, 2025 / Leave a comment
„Nudify” i generowania nagich wizerunków osób – identyfikacja, etyczne granice użytkowania i sposoby regulacji
🧠 Czym jest „nudify” i jak działa?
Zjawisko „nudify” polega na wykorzystaniu narzędzi sztucznej inteligencji – takich jak DALL·E, Stable Diffusion, DeepNude, a także setki anonimowych aplikacji mobilnych – do generowania syntetycznych, nagich wizerunków osób na podstawie ich zdjęć w ubraniu. Algorytmy te, bazując na milionach próbek obrazów ludzkiego ciała, „uzupełniają” brakujące fragmenty i tworzą realistycznie wyglądające obrazy nagości, które nigdy nie miały miejsca w rzeczywistości.Choć wiele z tych technologii (np. DALL·E od OpenAI) oficjalnie blokuje generowanie treści pornograficznych, coraz więcej otwartych modeli pozwala na ich tzw. fine-tuning, co umożliwia obejście filtrów bezpieczeństwa.
Szacuje się, że 99% seksualnie jednoznacznych deepfake’ów dostępnych online dotyczy kobiet i dziewcząt. Ponadto, chociaż posiadanie treści seksualnych generowanych przez sztuczną inteligencję z udziałem dzieci jest nielegalne, modele sztucznej inteligencji, które tworzą te obrazy, nie są nielegalne.

(więcej…)
20 maja, 2025 / Leave a comment
W erze nieustannego połączenia z internetem i rosnącej dominacji mediów społecznościowych, nasze cyfrowe życie staje się nie tylko odbiciem codzienności, ale i źródłem cennych informacji o naszym samopoczuciu. To, co publikujemy, jak często wchodzimy w interakcje, jakie treści konsumujemy – wszystko to składa się na nasz cyfrowy ślad, który może zdradzać więcej o naszym stanie psychicznym, niż moglibyśmy się spodziewać. (więcej…)
20 maja, 2025 / Leave a comment
Coraz częściej pojawiają się narzędzia oparte na sztucznej inteligencji, które obiecują rozpoznawać ludzkie emocje na podstawie mimiki twarzy. Choć brzmi to atrakcyjnie – warto się na chwilę zatrzymać i zadać pytanie: czy naprawdę da się „odczytać” emocje z twarzy? Większość tych systemów opiera się na analizie powierzchownych zmian mimicznych, a mimika to nie to samo co stan wewnętrzny człowieka. Pojawiają się pytania o prywatność, wiarygodność i potencjalne nadużycia takiej technologii, co rodzi konieczność wprowadzenia odpowiednich zasad, regulacji i standardów.
(więcej…)
19 maja, 2025 / Leave a comment
Media społecznościowe stały się integralną częścią codziennego życia miliardów ludzi. Cyfrowy ślad (ang. digital footprint) to wszystkie informacje, jakie użytkownik pozostawia po sobie w sieci – od publicznych postów, przez polubienia i komentarze, po metadane i historię aktywności. W kontekście bezpieczeństwa IT, analiza takiego śladu może dostarczyć cennych informacji pomagających wykrywać cyberzagrożenia. Jednak rodzi to pytania o granice ingerencji w aktywność użytkowników w imię ich ochrony. W niniejszym wpisie przeanalizujemy, jak analiza śladu cyfrowego w social media może służyć cyberbezpieczeństwu – do wykrywania wycieków danych, phishingu czy nieautoryzowanego dostępu – oraz jakie są ograniczenia i dylematy związane z taką praktyką.
(więcej…)
19 maja, 2025 / Leave a comment
Każdego dnia zostawiamy w internecie tysiące śladów cyfrowych, które mówią o nas więcej niż sądzimy. Chiński system zaufania społecznego wykorzystuje te informacje do oceny obywateli, wpływając na ich życie zawodowe i społeczne. Czy podobny model można wdrożyć w Europie? Jaką rolę odgrywają w tym procesie sztuczna inteligencja i Data Science? (więcej…)
19 maja, 2025 / Leave a comment
W dobie dynamicznego rozwoju sztucznej inteligencji coraz częściej pojawia się pytanie, jak systemy technologiczne powinny interpretować i reagować na emocje użytkowników. Inteligencja emocjonalna, od dawna badana w psychologii, oraz informatyka afektywna, zajmująca się rozpoznawaniem i odpowiedzią na ludzkie uczucia, stają się kluczowymi obszarami w projektowaniu interakcji człowieka z komputerem. Jednak wraz z możliwościami pojawiają się wyzwania – jak zapewnić, by reakcje systemów były nie tylko skuteczne, ale też etyczne, uwzględniające godność i autonomię użytkownika? I jak uniknąć manipulacji lub nadmiernej inwazyjności? (więcej…)
Warto też wspomnieć, że Jednolity System Antyplagiatowy (JSA), który zresztą jest używany w APD USOS, został wzbogacony o funkcję sprawdzania,…