{"id":4410,"date":"2024-04-03T20:25:18","date_gmt":"2024-04-03T20:25:18","guid":{"rendered":"http:\/\/architeles.eu\/ethics\/?p=4410"},"modified":"2024-04-03T20:25:18","modified_gmt":"2024-04-03T20:25:18","slug":"explainable-ai-a-generatory-w-jaki-sposob-integrowac-modele-wyjasniania-w-systemy-oparte-o-gpt","status":"publish","type":"post","link":"https:\/\/architeles.eu\/ethics\/index.php\/2024\/04\/03\/explainable-ai-a-generatory-w-jaki-sposob-integrowac-modele-wyjasniania-w-systemy-oparte-o-gpt\/","title":{"rendered":"Explainable AI a generatory. W jaki spos\u00f3b integrowa\u0107 modele wyja\u015bniania w systemy oparte o GPT"},"content":{"rendered":"<p style=\"text-align: left\"><strong>Wraz z dynamicznym rozwojem LLM\u00f3w (Du\u017cych Modeli J\u0119zykowych), takich jak GPT (Generative Pre-trained Transformer), pojawia si\u0119 ca\u0142a seria pyta\u0144 dotycz\u0105cych ich transparentno\u015bci i wyja\u015bnialno\u015bci. Z racji na coraz wi\u0119ksz\u0105 popularno\u015b\u0107 tych modeli, istnieje rosn\u0105ce zapotrzebowanie na zrozumienie, dlaczego modele podejmuj\u0105 konkretne decyzje i jakie s\u0105 mechanizmy, kt\u00f3re le\u017c\u0105 u ich podstaw. Co wi\u0119cej, Explainable AI mo\u017ce odgrywa\u0107 kluczow\u0105 rol\u0119 w zrozumieniu podstawowych przyczyn problem\u00f3w powi\u0105zanych z LLMami, takich jak halucynacje, brak aktualnej wiedzy, czy brak klarowno\u015bci \u017ar\u00f3de\u0142 z kt\u00f3rych pochodz\u0105 informacje w oparciu o kt\u00f3re wygenerowana zosta\u0142a dana odpowied\u017a. Warto jest wi\u0119c przyjrze\u0107 si\u0119 w\u0142a\u015bnie tej stronie tych modeli, a co za tym idzie nie ufa\u0107 im w ciemno i postawi\u0107 sobie pytania \u2013 Jak? Sk\u0105d? i Dlaczego?<\/strong><!--more--><\/p>\n<p style=\"text-align: justify\">\n<p>&nbsp;<\/p>\n<h2 style=\"text-align: left\"><strong>Waga Explainable AI w kontek\u015bcie Du\u017cych Modeli J\u0119zykowych<\/strong><\/h2>\n<figure id=\"attachment_4422\" aria-describedby=\"caption-attachment-4422\" style=\"width: 600px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4422 size-large\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/hallucinate_twitter-1024x576.png\" alt=\"\" width=\"600\" height=\"338\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/hallucinate_twitter-1024x576.png 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/hallucinate_twitter-300x169.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/hallucinate_twitter-768x432.png 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/hallucinate_twitter.png 1200w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><figcaption id=\"caption-attachment-4422\" class=\"wp-caption-text\">Halucynacje &#8211; s\u0142owo roku 2023 wed\u0142ug Dictionary.com<\/figcaption><\/figure>\n<p>Je\u015bli spojrzymy na histori\u0119 zwi\u0105zan\u0105 z rozwojem coraz to nowszych algorytm\u00f3w sztucznej inteligencji, cz\u0119sto mo\u017cna zauwa\u017cy\u0107 powtarzaj\u0105cy si\u0119 schemat w nast\u0119puj\u0105cej formie: Nowy algorytm \u2192 Zastosowania domenowe (finanse, medycyna, geologia, itd.) \u2192 Ulepszanie algorytm\u00f3w, Algorytmy wyja\u015bniaj\u0105ce\/ExplainableAI (XAI). Jest to do\u015b\u0107 naturalny cykl rozwojowy zar\u00f3wno z perspektywy naukowo-badawczej, jak i wdro\u017ceniowej. Z drugiej strony, je\u015bli spojrzymy na aktualne trendy w rozwoju nowych technologii, na przyk\u0142ad przygl\u0105daj\u0105c si\u0119 Gartner Hype Cycle, widzimy, \u017ce generatywna sztuczna inteligencja (GenAI), a zatem i du\u017ce modele j\u0119zykowe (LLMy, w tym oczywi\u015bcie modele GPT) s\u0105 w fazie tak zwanego \u201eSzczytu wyg\u00f3rowanych oczekiwa\u0144\u201d. Je\u015bli by wi\u0119c zag\u0142\u0119bi\u0107 si\u0119 w ten temat jeszcze bardziej i przyjrze\u0107 si\u0119 Hype Cycle w pe\u0142ni po\u015bwi\u0119conemu GenAI, to zobaczymy, \u017ce we wspomnianym \u201eSzczycie wyg\u00f3rowanych oczekiwa\u0144\u201d znajduj\u0105 si\u0119 LLMy, ale tak\u017ce AI TRiSM (AI Trust, Risk, Security Management), czyli zestaw rozwi\u0105za\u0144 maj\u0105cych na celu identyfikacj\u0119 i ograniczenie ryzyka dzia\u0142ania modeli AI. Fundamentami AI TRiSM s\u0105 prywatno\u015b\u0107, bezpiecze\u0144stwo aplikacji AI, eksploatacja modeli oraz interesuj\u0105ca nas najbardziej \u2013 wyja\u015bnialno\u015b\u0107 modeli oraz ich monitoring.<\/p>\n<figure id=\"attachment_4414\" aria-describedby=\"caption-attachment-4414\" style=\"width: 600px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4414 size-large\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1-1024x1024.jpg\" alt=\"\" width=\"600\" height=\"600\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1-1024x1024.jpg 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1-300x300.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1-150x150.jpg 150w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1-768x768.jpg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1-70x70.jpg 70w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner1.jpg 1080w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><figcaption id=\"caption-attachment-4414\" class=\"wp-caption-text\">Hype Cycle nowych technologii.<\/figcaption><\/figure>\n<figure id=\"attachment_4415\" aria-describedby=\"caption-attachment-4415\" style=\"width: 600px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4415 size-large\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2-1024x1024.jpg\" alt=\"\" width=\"600\" height=\"600\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2-1024x1024.jpg 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2-300x300.jpg 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2-150x150.jpg 150w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2-768x768.jpg 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2-70x70.jpg 70w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/gartner2.jpg 1280w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><figcaption id=\"caption-attachment-4415\" class=\"wp-caption-text\">Hype Cycle Generatywnej Sztucznej Inteligencji.<\/figcaption><\/figure>\n<p>Widzimy wi\u0119c, \u017ce explainatory modeli j\u0119zykowych s\u0105 wa\u017cne z perspektywy hype\u2019u wschodz\u0105cych technologii, ale jak wygl\u0105da to z punktu widzenia spo\u0142ecznego, a w szczeg\u00f3lno\u015bci codziennych u\u017cytkownik\u00f3w tych narz\u0119dzi? Przede wszystkim transparentno\u015b\u0107 i wyja\u015bnialno\u015b\u0107 decyzji potrzebna jest do zwyczajnego zrozumienia i ch\u0119ci poznania procesu decyzyjnego, kt\u00f3ry doprowadzi\u0142 to powstanie takiej odpowiedzi a nie innej. Jest to oczywi\u015bcie do\u015b\u0107 trywialne stwierdzenie, ale w rzeczywisto\u015bci jest ono kluczowe przy realizacji konkretnych rozwi\u0105za\u0144 dziedzinowych. Jako przyk\u0142ad przyjrzyjmy si\u0119 modelowi BioGPT \u2013 LLM do zada\u0144 biomedycznych. Zrealizujmy zapytanie maj\u0105ce na celu pr\u00f3b\u0119 diagnozy choroby w oparciu o podane symptomy.<\/p>\n<figure id=\"attachment_4416\" aria-describedby=\"caption-attachment-4416\" style=\"width: 969px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4416 size-full\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/biogpt.png\" alt=\"\" width=\"969\" height=\"290\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/biogpt.png 969w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/biogpt-300x90.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/biogpt-768x230.png 768w\" sizes=\"auto, (max-width: 969px) 100vw, 969px\" \/><figcaption id=\"caption-attachment-4416\" class=\"wp-caption-text\">Wynik dzia\u0142ania modelu BioGPT.<\/figcaption><\/figure>\n<p>I w\u0142a\u015bnie tutaj pojawia si\u0119 seria pyta\u0144 \u2013 dlaczego w\u0142a\u015bnie takie choroby zosta\u0142y zaproponowane jako potencjalna diagnoza? Kt\u00f3re symptomy by\u0142y kluczowe w podj\u0119ciu przez model decyzji? Czy podane przez model choroby w og\u00f3le istniej\u0105, a mo\u017ce s\u0105 wynikiem halucynacji modelu? I w\u0142a\u015bnie tutaj z pomoc\u0105 przychodz\u0105 modele wyja\u015bniania. Modele XAI mog\u0105 pom\u00f3c w odpowiedzi na te pytania poprzez dostarczenie wyja\u015bnie\u0144, kt\u00f3re u\u0142atwi\u0105 zrozumienie procesu decyzyjnego modelu \u2013 mog\u0105 nam na przyk\u0142ad pokaza\u0107, kt\u00f3re cechy objaw\u00f3w by\u0142y najbardziej istotne dla danego wyniku, jakie dane wej\u015bciowe mia\u0142y najwi\u0119kszy wp\u0142yw na wynik, jak model przyporz\u0105dkowa\u0142 znaczenie poszczeg\u00f3lnym objawom, a tak\u017ce jakie jest \u017ar\u00f3d\u0142o danych w oparciu o kt\u00f3re model ma posiadan\u0105 wiedz\u0105.<\/p>\n<p>&nbsp;<\/p>\n<h2>Metody Explainable AI dla Du\u017cych Modeli J\u0119zykowych<\/h2>\n<p>W ostatnim czasie pojawi\u0142o si\u0119 wiele r\u00f3\u017cnorodnych propozycji metod XAI dla LLM\u00f3w. Warto przyjrze\u0107 si\u0119 kilku wiod\u0105cym narz\u0119dziom, w\u015br\u00f3d kt\u00f3rych wyr\u00f3\u017cni\u0107 mo\u017cna:<\/p>\n<ul>\n<li><strong>HELM (Holistic Evaluation of Language Models)<\/strong> \u2013 framework do oceny modeli j\u0119zykowych pod k\u0105tem szerokiego spektrum u\u017cytkowalno\u015bci, w tym uczciwo\u015bci, wydajno\u015bci, odporno\u015bci na halucynacje, toksyczno\u015bci i wielu innych. Jest to ci\u0105gle aktualizowane narz\u0119dzie na przejrzysto\u015b\u0107 modeli przy u\u017cyciu r\u00f3\u017cnych scenariuszy, wska\u017anik\u00f3w i modeli. Jest wi\u0119c to forma wyja\u015bnialno\u015bci na poziomie globalnym, gdzie mo\u017cna przeprowadzi\u0107 analiz\u0119, jak dane LLMy sprawdz\u0105 si\u0119 w danym zadaniu, np. pod wzgl\u0119dem toksyczno\u015bci generowanych tre\u015bci<\/li>\n<li><strong>ANE (Automatic Neuron Explanation)<\/strong> \u2013 metodologia, kt\u00f3ra do interpretacji dzia\u0142ania modeli GPT wykorzystuje\u2026 model GPT! Jest to proces 3stopniowy kt\u00f3rego g\u0142\u00f3wn\u0105 domen\u0105 dzia\u0142ania jest inspekcja dzia\u0142ania poszczeg\u00f3lnych neuron\u00f3w i warstw atencji. W pierwszej kolejno\u015bci, korzystaj\u0105c z neuronu z GPT-2, generowane jest wyja\u015bnienie jego zachowania, pokazuj\u0105c odpowiednie sekwencje tekstowe i aktywacje do GPT-4. Nast\u0119pnie GPT-4 jest u\u017cywany do przewidywania aktywacji neuron\u00f3w dla ka\u017cdego tokena w danej sekwencji, przy za\u0142o\u017ceniu, \u017ce proponowane wyja\u015bnienie dok\u0142adnie i kompleksowo wyja\u015bnia zachowanie neuronu. Wreszcie, w ostatnim kroku, nast\u0119puje ocena wyja\u015bnie\u0144 poprzez por\u00f3wnanie zachowania symulowanego neuronu z zachowaniem rzeczywistego neuronu. Jest wi\u0119c to do\u015b\u0107 ciekawe podej\u015bcie do problemu, aczkolwiek wi\u0105\u017ce si\u0119 z do\u015b\u0107 spor\u0105 gam\u0105 ogranicze\u0144, w tym wymogiem do\u015b\u0107 sporych zasob\u00f3w obliczeniowych, brakiem eksploracji bardziej rozbudowanych po\u0142\u0105cze\u0144 neuronowych i wci\u0105\u017c pozostawiaj\u0105c pewn\u0105 czarno-skrzynkow\u0105 natur\u0119.<\/li>\n<li><strong>Phoenix<\/strong> \u2013 narz\u0119dzie dedykowane raczej in\u017cynierom i data scientistom, kt\u00f3re umo\u017cliwia dog\u0142\u0119bn\u0105 analiz\u0119 dzia\u0142ania modelu z wykorzystaniem podej\u015bcia notatnikowego. Z wykorzystaniem Phoenix\u2019a mo\u017cna zbada\u0107 LLM pod wzgl\u0119dem m.in. \u015bledzenia wykonywania generacji, ewaluacji (toksyczno\u015bci, trafno\u015bci, itp.), analizy osadze\u0144, czy te\u017c wizualizacji procesu wyszukiwania danych w celu usprawnienia procesu generowania z rozszerzonym wyszukiwaniem RAG.<\/li>\n<\/ul>\n<p>Widzimy wi\u0119c, \u017ce metodologia XAI rozwija si\u0119 pr\u0119\u017cnie w obr\u0119bie LLM\u00f3w, chocia\u017c ka\u017cde narz\u0119dzie ma oczywi\u015bcie pewne minusy \u2013 czy to wy\u0142\u0105cznie wyja\u015bnialno\u015b\u0107 na poziomie globalnym, czy ograniczon\u0105 eksploracj\u0119, czy w ko\u0144cu zaawansowany charakter dzia\u0142ania dedykowany in\u017cynierom i programistom.<\/p>\n<h2>Szersze spektrum metodologii wyja\u015bniania<\/h2>\n<p>W jaki wi\u0119c spos\u00f3b wprowadzi\u0107 warstw\u0119 wyja\u015bnialn\u0105 do codziennych zastosowa\u0144 modeli GPT, kt\u00f3ra mo\u017ce by\u0107 wykorzystywana przez ka\u017cdego u\u017cytkownika tych narz\u0119dzi?\u00a0 Odpowied\u017a na to pytanie nie jest ju\u017c jakkolwiek trywialna, a dodatkowo mo\u017cna by powiedzie\u0107, \u017ce to wszystko zale\u017cy od tego, ile czasu jeste\u015bmy w stanie po\u015bwi\u0119ci\u0107 na zrozumienie podj\u0119tych przez model decyzji i analiz\u0119 otrzymanych w rezultacie wynik\u00f3w.<\/p>\n<h3>Analiza scenariuszy<\/h3>\n<p>Przyjrzyjmy si\u0119 zatem w pierwszej kolejno\u015bci nast\u0119puj\u0105cemu podej\u015bciu. Z racji, \u017ce proces generatywny ma w sobie oczywiste elementy stochastyczne, generowanie tre\u015bci przez modele GPT ma pewien pierwiastek losowy (kontrolowany na r\u00f3\u017cne sposoby), kt\u00f3ry przyczynia si\u0119 do tego, \u017ce odpowiedzi generowane na to samo zapytanie nie zawsze b\u0119d\u0105 identyczne. Chocia\u017c zwykle sens danej wypowiedzi zostanie zachowany, ca\u0142a wypowied\u017a b\u0119dzie r\u00f3\u017cni\u0107 si\u0119 znakami interpunkcyjnymi, sk\u0142adni\u0105 itp., co jest oczywi\u015bcie wynikiem tego, \u017ce LLMy dokonuj\u0105 generacji token po tokenie. W zwi\u0105zku z tym mo\u017cna przeprowadzi\u0107 eksperyment, w kt\u00f3rym to samo zapytanie do modelu typu ChatGPT puszczone zostanie setki razy. Powstanie w\u00f3wczas pewien \u201eglobalny\u201d \u0142a\u0144cuch my\u015bli, kt\u00f3ry b\u0119dzie do\u015b\u0107 wnikliw\u0105 analiz\u0105 generacyjnego procesu token po tokenie wraz z rozbudowanym przegl\u0105dem mo\u017cliwych alternatyw. Realizacja tego pomys\u0142u zosta\u0142a wykonana na przyk\u0142ad przez Look into Machine\u2019a Mind, gdzie eksploracji poddane zostaje doko\u0144czenie promptu \u201eIntelligence is\u201d:<\/p>\n<p><iframe loading=\"lazy\" title=\"Look into the machine&#039;s mind\" width=\"600\" height=\"450\" src=\"https:\/\/www.youtube.com\/embed\/x-Ej0VxzUAY?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>Tego typu podej\u015bcie zapewnia wi\u0119c spojrzenie na natur\u0119 otrzymywanych odpowiedzi i dodatkowo pozwala na pewn\u0105 form\u0119 manipulacji otrzymanym tekstem. Jest wi\u0119c to zdecydowanie ciekawa forma alternatywna do klasycznych explainator\u00f3w, kt\u00f3ra nie wymaga \u017cadnej wiedzy technicznej, aczkolwiek wymaga do\u015b\u0107 du\u017cego nak\u0142adu czasowego na analiz\u0119.<\/p>\n<p>&nbsp;<\/p>\n<h3>Wsparcie silnikiem wyszukiwa\u0144 z cz\u0119\u015bci\u0105 AI<\/h3>\n<p>Oczywi\u015bcie zanim nardz\u0119dzia pokroju ChatGPT sta\u0142y si\u0119 towarzyszami naszej pracy, wyszukiwanie i weryfikacja tre\u015bci opiera\u0142a si\u0119 niemal\u017ce w ca\u0142o\u015bci o wyszukiwarki jak Google czy Bing, wi\u0119c mowa tutaj o potocznym googlowaniu. A je\u015bliby po\u0142\u0105czy\u0107 si\u0142\u0119 generowanych tre\u015bci przez LLMy z benefitami wyszukiwania, czyli dost\u0119pem do \u017ar\u00f3de\u0142 danych, w oparciu o kt\u00f3re otrzymujemy wyniki? Takie rozwi\u0105zanie wprowadzi\u0142oby dodatkow\u0105 form\u0119 abstrakcji, kt\u00f3ra umo\u017cliwi\u0142aby nam, u\u017cytkownikom, dodatkowe zag\u0142\u0119bienie w analiz\u0119 otrzymanych tre\u015bci. Mo\u017cemy wi\u0119c z naszej perspektywy spojrze\u0107 na to jako na wyja\u015bnialno\u015b\u0107 lokaln\u0105 (dla generowanej wypowiedzi) w oparciu o wiedz\u0119 globaln\u0105 (zewn\u0119trzne \u017ar\u00f3d\u0142a danych i teksty). Tak si\u0119 sk\u0142ada, \u017ce takie rozwi\u0105zanie jest oferowane przez Perplexity.ai, b\u0119d\u0105ce wyszukiwark\u0105 konwersacyjn\u0105, kt\u00f3ra wykorzystuje LLM do dostarczania informacji za po\u015brednictwem interfejsu w stylu chatbota. Perplexity.ai rozwi\u0105zuje w g\u0142\u00f3wnej mierze dwa problemy LLM\u00f3w \u2013 brak \u015bwie\u017co\u015bci generowanych tre\u015bci i aktualnych informacji oraz halucynacje, co jest w\u0142a\u015bnie wynikiem dodania warstwy wyszukiwarkowej. Jako przyk\u0142ad wprowad\u017amy do narz\u0119dzia Perpliexity.ai wyniki wygenerowane przez BioGPT.<\/p>\n<figure id=\"attachment_4420\" aria-describedby=\"caption-attachment-4420\" style=\"width: 600px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4420 size-large\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl-796x1024.png\" alt=\"\" width=\"600\" height=\"772\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl-796x1024.png 796w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl-233x300.png 233w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl-768x987.png 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl-1195x1536.png 1195w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl.png 1386w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><figcaption id=\"caption-attachment-4420\" class=\"wp-caption-text\">Dzia\u0142anie Perplexity.ai na odpowiedzi z BioGPT.<\/figcaption><\/figure>\n<p>&nbsp;<\/p>\n<p>I jak mo\u017cemy zobaczy\u0107 otrzymujemy bardzo precyzyjn\u0105 odpowied\u017a potwierdzaj\u0105c\u0105 s\u0142uszno\u015b\u0107 otrzymanych wcze\u015bniej wynik\u00f3w wraz z zag\u0142\u0119bieniem w szczeg\u00f3\u0142y prowadz\u0105ce do takiej diagnozy. Co wi\u0119cej, wyniki poparte s\u0105 seri\u0105 bardzo wiarygodnych \u017ar\u00f3de\u0142 (w tym przypadku pochodz\u0105ce z National Library of Medicine), co wp\u0142ywa pozytywnie na odbi\u00f3r otrzymanych tre\u015bci, gdy\u017c s\u0105 one zweryfikowane pod k\u0105tem prawdziwo\u015bci.<\/p>\n<p>Sp\u00f3jrzmy jeszcze dok\u0142adnie na koncept eliminacji halucynacji modelu. Zapytajmy zar\u00f3wno ChatGPT jak i Perplexity.ai o wylistowanie artyku\u0142\u00f3w naukowych na okre\u015blony temat.<\/p>\n<figure id=\"attachment_4421\" aria-describedby=\"caption-attachment-4421\" style=\"width: 2120px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-4421 size-full\" src=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2.png\" alt=\"\" width=\"2120\" height=\"1685\" srcset=\"https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2.png 2120w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2-300x238.png 300w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2-1024x814.png 1024w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2-768x610.png 768w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2-1536x1221.png 1536w, https:\/\/architeles.eu\/ethics\/wp-content\/uploads\/2024\/04\/ppxl2-2048x1628.png 2048w\" sizes=\"auto, (max-width: 2120px) 100vw, 2120px\" \/><figcaption id=\"caption-attachment-4421\" class=\"wp-caption-text\">Wyniki ChatGPT i erplexity.ai przy listowaniu artyku\u0142\u00f3w naukowych.<\/figcaption><\/figure>\n<p>Jak zauwa\u017cy\u0107 mo\u017cemy i w tym przypadku Perplexity.ai sprawi\u0142o si\u0119 wy\u015bmienicie i poda\u0142o istniej\u0105ce artyku\u0142y, polinkowuj\u0105c ich \u017ar\u00f3d\u0142a, gdzie ChatGPT z kolei zawi\u00f3d\u0142 ca\u0142kowicie i poda\u0142 nieistniej\u0105ce artyku\u0142y, b\u0105d\u017a pomyli\u0142 autor\u00f3w.<\/p>\n<h2>Podsumowanie<\/h2>\n<p>Wyja\u015bnialno\u015b\u0107 sztucznej inteligencji, zw\u0142aszcza w kontek\u015bcie du\u017cych modeli j\u0119zykowych, staje si\u0119 coraz wa\u017cniejsza. Modelowanie wyja\u015bnialno\u015bci mo\u017ce pom\u00f3c w zrozumieniu procesu decyzyjnego tych modeli oraz identyfikacji ich potencjalnych problem\u00f3w, takich jak halucynacje czy brak aktualnej wiedzy. W tym wpisie przejrzeli\u015bmy kilka popularnych narz\u0119dzi i metodologii, kt\u00f3re dostarczaj\u0105 wyja\u015bnialno\u015b\u0107 zar\u00f3wno na poziomie globalnym jak i lokalnym, a tak\u017ce prowadz\u0105 do zrozumienia niskopoziomowego oraz wysokopoziomowego. Wprowadzenie warstwy wyja\u015bnialnej do codziennych zastosowa\u0144 modeli GPT jest kluczowe dla zapewnienia transparentno\u015bci i zaufania u\u017cytkownik\u00f3w oraz efektywnego wykorzystania tych zaawansowanych narz\u0119dzi AI.<\/p>\n<h2>Literatura<\/h2>\n<ol>\n<li>Luo, R., Sun, L., Xia, Y., Qin, T., Zhang, S., Poon, H., &amp; Liu, T. Y. (2022). BioGPT: generative pre-trained transformer for biomedical text generation and mining. Briefings in bioinformatics, 23(6), bbac409.<\/li>\n<li>medium.com\/@alaeddineayadi\/advanced-techniques-in-explainable-ai-xai-for-a-responsible-large-language-models-4c472fde996e<\/li>\n<li>linkedin.com\/pulse\/deep-dive-explainable-ai-llms-talan-innovation-factory-talan-tun-gzilf\/<\/li>\n<li>Bills, S., Cammarata, N., Mossing, D., Tillman, H., Gao, L., Goh, G., &#8230; &amp; Saunders, W. (2023). Language models can explain neurons in language models. URL https:\/\/openaipublic. blob. core. windows. net\/neuron-explainer\/paper\/index. html.(Date accessed: 14.05. 2023).<\/li>\n<li>openai.com\/research\/language-models-can-explain-neurons-in-language-models<\/li>\n<li>producthunt.com\/posts\/look-into-the-machine-s-mind<\/li>\n<li>perplexity.ai\/hub\/faq\/what-is-perplexity<\/li>\n<\/ol>\n","protected":false},"excerpt":{"rendered":"<p>Wraz z dynamicznym rozwojem LLM\u00f3w (Du\u017cych Modeli J\u0119zykowych), takich jak GPT (Generative Pre-trained Transformer), pojawia si\u0119 ca\u0142a seria pyta\u0144 dotycz\u0105cych ich transparentno\u015bci i wyja\u015bnialno\u015bci. Z racji na coraz wi\u0119ksz\u0105 popularno\u015b\u0107 tych modeli, istnieje rosn\u0105ce zapotrzebowanie na zrozumienie, dlaczego modele podejmuj\u0105 konkretne decyzje i jakie s\u0105 mechanizmy, kt\u00f3re le\u017c\u0105 u ich podstaw. Co wi\u0119cej, Explainable AI [&hellip;]<\/p>\n","protected":false},"author":176,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[15,246,269,279,20,213],"class_list":["post-4410","post","type-post","status-publish","format-standard","hentry","category-uncategorized","tag-ai","tag-chatgpt","tag-gpt","tag-llm","tag-sztuczna-inteligencja","tag-xai"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/4410","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/users\/176"}],"replies":[{"embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/comments?post=4410"}],"version-history":[{"count":1,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/4410\/revisions"}],"predecessor-version":[{"id":4442,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/posts\/4410\/revisions\/4442"}],"wp:attachment":[{"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/media?parent=4410"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/categories?post=4410"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/architeles.eu\/ethics\/index.php\/wp-json\/wp\/v2\/tags?post=4410"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}