Home » Posts tagged 'LLM'

Tag Archives: LLM

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 391
  • 2 646
  • 45 251
  • 15 607
  • 26

Zjawisko „paper mills” a wykorzystanie wielkich modeli językowych w pisaniu prac naukowych – mechanizmy działania i konsekwencje.

Rozwój sztucznej inteligencji postawił świat nauki przed nowym wyzwaniem: ,,fabryki prac’’ (ang. paper mills) zalewają literaturę naukową publikacjami pozorującymi rzetelne badania. Dzięki potędze dużych modeli językowych (LLM) generowanie przekonujących – choć fałszywych – artykułów stało się łatwiejsze niż kiedykolwiek. To zjawisko podkopuje zaufanie do nauki w podobny sposób, w jaki fake newsy i deepfake’i podważają wiarygodność informacji w społeczeństwie. Główny wniosek jest jasny: bez zdecydowanych działań organizacyjnych i technologicznych ryzykujemy kryzys wiarygodności nauki na niespotykaną skalę.

(więcej…)

Benchmarking w analizie wielkich modeli językowych – wykrywanie biasów dotyczących płci, rasy, narodowości oraz preferencji seksualnych w generowanych treściach

Wielkie modele językowe (LLM – Large Language Models, takie jak GPT, Gemini czy Claude) odgrywają coraz większą rolę w komunikacji, edukacji, biznesie, badaniach naukowych i wielu innych obszarach życia codziennego. Algorytmy sztucznej inteligencji coraz częściej wpływają na decyzje mające realne konsekwencje społeczne. W związku z tym, oprócz oceny ich skuteczności i funkcjonalności, rośnie potrzeba analiza uprzedzeń (biasów) obecnych w generowanych treściach — dotyczących płci, rasy, narodowości oraz preferencji seksualnych.

(więcej…)

Inteligencja emocjonalna, informatyka afektywna i sztuczna inteligencja – odczytywanie emocji na podstawie reakcji fizjologicznych i zachowań (innych niż ekspresje twarzy): integracja danych, wiarygodność odczytu oraz interpretacja sygnałów i reakcje systemu

Emocje towarzyszą nam na każdym kroku – wpływają na to, co myślimy, jak działamy i jak wchodzimy w relacje z innymi. Choć przez wieki wydawały się domeną wyłącznie ludzką, dziś stajemy przed pytaniem, czy maszyny też mogą „rozumieć” emocje. Zwłaszcza w świecie, w którym sztuczna inteligencja coraz sprawniej rozpoznaje nasze potrzeby, pytanie o to, czy maszyny potrafią „wyczuć” emocje, nabiera nowego wymiaru. Co jednak, jeśli AI nie widzi twarzy – nie widzi uśmiechu, zmarszczonych brwi, zmrużonych oczu? Czy mimo to potrafi rozpoznać emocje człowieka?

(więcej…)

Chcesz korzystać z AI to płać. Kwestia dostępności do systemów AI i sposoby płatności. Open source czy komercjalizacja perspektywa społeczno-etyczna.

W ostatnich latach rozwój sztucznej inteligencji (AI) zrewolucjonizował wiele dziedzin naszego życia, od medycyny po marketing. Systemy AI są coraz bardziej zaawansowane, a ich dostępność i koszty stały się gorącym tematem dyskusji. Jak wygląda obecnie sytuacja z dostępnością do systemów AI? Jakie są metody płatności za te technologie i czy lepsze są rozwiązania open source czy komercyjne? Przyjrzyjmy się temu bliżej.

(więcej…)

Nauka „promptowania” dużych modeli językowych: strategie wydawania poleceń systemom sztucznej inteligencji

W dzisiejszych czasach duże modele językowe (ang. large language models, LLM) rewolucjonizują nasze interakcje z sztuczną inteligencją, umożliwiając im rozumienie poleceń i generowanie ludzkich odpowiedzi. Proces tworzenia właściwego zadania dla modelu, zwany „promptowaniem”, stał się kluczowym elementem wykorzystania tych narzędzi. W niniejszym artykule omawiamy różne strategie „promptowania”, które pozwalają na maksymalne wykorzystanie potencjału modeli językowych oraz poprawę jakości uzyskiwanych odpowiedzi. Skupiamy się na technikach usprawniających wnioskowanie, zwiększających wiarygodność odpowiedzi modeli, a także na sposobach dopasowania charakteru odpowiedzi do określonych wymagań. Przedstawiamy również zagrożenia związane z „promptowaniem”, takie jak próby obejścia ograniczeń modeli i wykorzystanie ich w sposób niezgodny z ich przeznaczeniem.

(więcej…)

Explainable AI a generatory. W jaki sposób integrować modele wyjaśniania w systemy oparte o GPT

Wraz z dynamicznym rozwojem LLMów (Dużych Modeli Językowych), takich jak GPT (Generative Pre-trained Transformer), pojawia się cała seria pytań dotyczących ich transparentności i wyjaśnialności. Z racji na coraz większą popularność tych modeli, istnieje rosnące zapotrzebowanie na zrozumienie, dlaczego modele podejmują konkretne decyzje i jakie są mechanizmy, które leżą u ich podstaw. Co więcej, Explainable AI może odgrywać kluczową rolę w zrozumieniu podstawowych przyczyn problemów powiązanych z LLMami, takich jak halucynacje, brak aktualnej wiedzy, czy brak klarowności źródeł z których pochodzą informacje w oparciu o które wygenerowana została dana odpowiedź. Warto jest więc przyjrzeć się właśnie tej stronie tych modeli, a co za tym idzie nie ufać im w ciemno i postawić sobie pytania – Jak? Skąd? i Dlaczego? (więcej…)

ChatGPT w pracy data scientista. Możliwości automatyzacji w analizie danych. Jak interpretować wyniki i jaka jest ich jakość.

Jako model językowy, nie jestem wstanie przeprowadzać analiz jednak według mojej wiedzy… Czy widziałeś kiedyś tekst opublikowany przez człowieka będący tak naprawdę napisany przez sztuczną inteligencję a ludzkiemu „autorami” zapomniało się nawet usunąć zdania w którym model przyznaje się do autorstwa? W poniższym wpisie chcemy przedyskutować jak data scientist może korzystać z ChataGPT oraz jak powinien robić to w sposób etyczny. (więcej…)

Automatyczne generowanie kodu. Jak modele GPT-3 wspierają programistów

GPT-3 to model języka naturalnego, który generuje teksty wyglądające na napisane przez człowieka. Dzięki niemu programiści mogą poprosić o napisanie funkcji lub algorytmu, zamiast samodzielnie pisać setki linii kodu. Narzędzia, takie jak GitHub Copilot, wykorzystujące GPT-3, mogą generować kod na podstawie komentarzy lub dokumentacji wprowadzonych przez programistę, co może przyspieszyć proces tworzenia oprogramowania, pomóc w naprawie błędów i stanowić narzędzie do nauki dla początkujących programistów. Jednak, jak każda technologia, GPT-3 ma swoje wyzwania i ograniczenia, o których trzeba pamiętać.

(więcej…)

Najnowsze komentarze

  1. […] poprzednim artykule skupiliśmy się na seks robotach w ogólności, a także na najpopularniejszej formie tego […]

  2. W 2023 nastąpiło też ,,ożywienie'' Boczka i Paździocha (za zgodą rodziny) w specjalnym odcinku ,,Świata według Kiepskich'': https://www.polsat.pl/news/2023-03-20/swiat-wedlug-kiepskich-zobacz-odcinek-specjalny/ Niestety, wyszło…

  3. W kwestii obrony przed nadużywaniem metod z tej rodziny przy stawianiu oskarżeń, jako pewne rozwinięcie tematu mogę polecić przesłuchanie w…