Home » AGH 2023/24 » Elicit i inne narzędzia w AI w warsztacie naukowca – jak narzędzia uczenia maszynowego pomagają wyszukiwać adekwatne informacje i generować tekst. Odbiór zjawiska przez społeczność akademicką.

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 47

Elicit i inne narzędzia w AI w warsztacie naukowca – jak narzędzia uczenia maszynowego pomagają wyszukiwać adekwatne informacje i generować tekst. Odbiór zjawiska przez społeczność akademicką.

Spread the love

W dzisiejszym dynamicznym świecie nauki, w którym informacje rozwijają się w tempie niemalże nie do ogarnięcia, narzędzia sztucznej inteligencji (AI) stają się nieocenionym wsparciem dla badaczy w procesie przetwarzania i analizy ogromnych ilości danych. Jednym z kluczowych obszarów, gdzie potęga sztucznej inteligencji otwiera nowe perspektywy, jest naukowe poszukiwanie informacji oraz generowanie tekstu. W tym kontekście, narzędzia takie jak Elicit stają się prawdziwymi sprzymierzeńcami dla współczesnych naukowców, pomagając im w efektywnym wyszukiwaniu i przetwarzaniu danych, a także w tworzeniu treści o wysokim poziomie merytorycznym.

W niniejszym artykule przyjrzymy się bliżej roli narzędzi sztucznej inteligencji, ze szczególnym uwzględnieniem Elicit, w warsztacie naukowca. Zastanowimy się, w jaki sposób technologie uczenia maszynowego rewolucjonizują procesy wyszukiwania informacji, jak wpływają na generowanie treści naukowej, oraz jakie rezonanse wywołują w społeczności akademickiej.

Elicit jako narzędzie do wspomagania naukowców

Elicit, będący jednym z nowoczesnych modeli językowych, stanowi pionierską innowację w dziedzinie sztucznej inteligencji. Opracowany w celu efektywnego przeszukiwania baz danych prac naukowych, Elicit wykorzystuje zaawansowane mechanizmy uczenia maszynowego, które umożliwiają mu zrozumienie kontekstu i sensu treści naukowej. Jego zdolność do analizy oraz identyfikacji wzorców w tekście pozwala badaczom szybko i precyzyjnie odnajdywać istotne informacje w obszarze ich zainteresowań.

Narzędzie to, w wersji community, posiada trzy tryby pracy:

  • Podobnie do modeli GPT, przyjmuje zapytania w języku naturalnym i szuka odpowiedzi na nie opierając się wyłącznie o publikacje naukowe
  • Wyszukiwanie danych w PDFach – nieco bardziej lokalne zastosowanie. Potrafi przeskanować podany plik PDF w poszukiwaniu odpowiedzi na zadane pytania
  • Wyszukiwanie konceptów – Skupia się bardziej na wyszukiwaniu ogólnych sensów prac naukowych niż odpowiedzi na postawione pytanie, np. zwijanie białek, algorytmy ewolucyjne etc.

Według informacji zawartej na stronie narzędzia podczas przeszukiwania, wydobywa ono wiedzę z ponad 126 milionów prac naukowych i podaje wyniki, oznaczone jako przydatne z największym prawdopodobieństwem.

Patrząc w ten sposób, Elicit wydaje się być nie tylko narzędziem, ale także swoistym partnerstwem dla naukowców, umożliwiającym im skuteczne przemierzanie gąszczy informacyjnej w dzisiejszym cyfrowym krajobrazie nauki.

W wersji premium, niedostępnej już dla moich testów, model językowy Elicit nie tylko ułatwia proces wyszukiwania informacji, lecz także stanowi znaczący wkład w rozwijanie zdolności generatywnych. Pozwala na tworzenie treści naukowej o wysokim poziomie merytorycznym, inspirowanej analizą istniejących prac i korzystającej z najnowszych osiągnięć nauki. Wprowadza tym samym nowy wymiar do tworzenia tekstu naukowego, integrując potencjał sztucznej inteligencji z kreatywnością ludzkiego myślenia naukowego.

Przykładowy wynik działania programu Elicit

Inne przydatne narzędzia

DALL-E

DALL-E, będący dziełem OpenAI, to innowacyjne narzędzie generatywne oparte na modelu GPT-3, które specjalizuje się w tworzeniu realistycznych obrazów na podstawie opisu tekstowego. W kontekście naukowego badania, DALL-E staje się kreatywnym instrumentem do wizualizacji różnorodnych koncepcji, pomagając naukowcom lepiej zrozumieć, komunikować i eksplorować ich badania. Naukowcy mogą opisać planowane eksperymenty lub koncepcje badawcze za pomocą tekstu, a następnie użyć DALL-E do wygenerowania ilustracji tych idei. To umożliwia szybkie stworzenie graficznych reprezentacji różnych scenariuszy eksperymentalnych, co ułatwia zrozumienie i prezentację pomysłów w formie wizualnej. Narzędzie to może się okazać przydatne też przy części edytorskiej tworzenia prac naukowych – pozwala wygenerować ilustracje do publikacji, oszczędzając czas i fundusze na grafików.

DALL-E z promptem: “visualization of chemical experiment, with two test tubes, one scientist observing, chemical tripod in laboratory with full equipment”

Codex

OpenAI Codex, bazujący na modelu GPT-3, to narzędzie, które może znacząco ułatwić pracę naukowcom nad publikacjami, zwłaszcza w kontekście tworzenia kodu do analizy danych eksperymentalnych. Naukowcy często potrzebują stworzyć skomplikowany kod do analizy danych z eksperymentów. Codex może być używany do automatycznego generowania kodu na podstawie opisów tekstowych. Wystarczy opisać zadanie lub procedurę, a Codex zinterpretuje treść i zaproponuje odpowiadający kod. Może to być szczególnie przydatne dla osób mniej zaznajomionych z technikami programowania, czyli naukowców, dla których informatyka jest daleko od dziedzin, w których się specjalizują. 

ChatGPT

Na koniec, wspomnę o najpopularniejszym narzędziu, czyli ChatGPT w wersji 3.5. ChatGPT, będący modelem językowym opartym na technologii sztucznej inteligencji, może być niezwykle przydatny dla naukowców przy generowaniu treści na różnych etapach ich pracy badawczej. Należy mieć tutaj na uwadze, że narzędzie to słabo sprawdza się w tworzeniu merytorycznych, wysoce specjalizowanych tekstów – popełnia w nich bardzo dużo błędów i nie można mu ufać. Nadaje się za to bardzo dobrze przy generowaniu abstraktów, streszczeń i podsumowań. Potrafi użyć bogatego słownictwa aby opisać podany mu wcześniej tekst i wychodzi mu to naprawdę dobrze.

Świat nauki vs generatywne AI

Świat nauki odnosi się zarówno negatywnie jak i pozytywnie do użycia generatywnego AI podczas pisania prac naukowych. Dla przykładu, Michigan Institute for Data Science (MIDaS) wydał specjalną broszurę, w której przestrzega przed używaniem generatywnego AI do pisania prac naukowych. Wymienia w niej przykładowe stanowiska najpopularniejszych czasopism naukowych odnośnie użycia sztucznej inteligencji:

  • Springer Nature – Zakazuje użycia generatywnego AI w swoich pracach badawczych, chyba że dokładnie udokumentuje się, co zostało wygenerowane
  • Science – Zakazuje użycia generatywnego AI w swoich pracach badawczych. Użycie owych narzędzi jest możliwe tylko za specjalną zgodą wydawcy.
  • JAMA oraz JAMA Network – Zezwala na użycie generatywnego AI, jednak zakazuje przyznawania mu jakiegokolwiek autorstwa i wymaga, aby wspomnieć że takiego modelu użyto.
  • The International Conference on Machine Learning – Zakazuje użycia generatywnego AI w swoich pracach badawczych, chyba że ich użycia jest ściśle powiązane z prowadzeniem prac badawczych.

Jak widać, największe journale niezbyt chętnie zapatrują się na używanie AI przy generowaniu tekstów prac naukowych. Równie nie polecane jest użycie generatywnego AI przy rozpatrywaniu wniosków grantowych lub przy tworzeniu recenzji innych prac naukowych. Jest to spowodowane możliwością popełniania błędów przez AI i odrzuceniu obiecujących pomysłów na prace naukowe innych naukowców, lub, w drugą stronę, przyjęcia grantu, który nie ma prawa się udać. 

Nie są to jednak jedyne użycia sztucznej inteligencji, gdyż można jej użyć także przy pisaniu grantów, tworzeniu analizy danych, prowadzeniu burzy mózgów na dany temat. Wspomniane wyżej źródło, broszura MIDaS, nie zniechęca w tym przypadku do użycia sztucznej inteligencji, zaleca jedynie ostrożność i rozwagę przy jej używaniu.

Co naukowcy myślą o generatywnym AI?

W sierpniu 2023 roku ukazała się bardzo szczegółowa i obszerna metaanaliza, która zebrała w jedno miejsce opinie różnych ekspertów odnośnie użycia generatywnego AI. Podsumowuje on nadzieje oraz obawy różnych naukowców o tym, do czego doprowadzi użycie sztucznej inteligencji. 

Spośród obaw dominuje pogląd, że niewłaściwie użyte AI zabije krytyczne myślenie oraz zdolność samodzielnego osądu, szczególnie wśród młodych badaczy oraz, że doprowadzi do wtórnego analfabetyzmu, spowodowanego faktem, że coraz mniej osób będzie chciało samodzielnie szukać informacji, a zatem mogą tą umiejętność zatracić. Badacze wskazują także, że AI potrafi przesuwać środek ciężkości swoich twierdzeń na bezsensowne i szkodliwe społecznie argumenty. Na przykład, ich zdaniem, model ChatGPT 3.5 potrafił pomijać cytowane źródła naukowe na podstawie przynależności etnicznej lub płciowej ich autorów. Wątpliwości etycznych dodają też przypadki złego traktowania pracowników OpenAI w Kenii oraz pytanie, czy dodawać model AI jako kolejnego autora prac badawczych, gdyż zdaniem naukowców, model ten nie potrafi generować niczego nowego, a jedynie uczyć się na istniejących danych.

Z drugiej strony, pomijanie zalet AI przy decyzji o ich użyciu może narazić świat nauki na świadomy regres, powodując, że wiele prac naukowych będzie niskiej jakości (ich autorzy akurat nie natknęli się na pracę, którą mogliby się wspomóc, choć takową na pewno znalazłby np. Elicit i podsunął naukowcom), będą publikowane wolno, ze względu na zbędny narzut czasowy na zadania redakcyjne w pracy lub nawet zawierać błędy, gdyż AI potrafi sprawdzić np. kod analizy danych pod kątem błędów.

Źródła


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…