Home » Uncategorized » Krzemowa terapeutka. Informatyka w psychologii i psychiatrii

Tagi

Wyróżnione posty

Zobacz też

Statystyki

  • 71
  • 238
  • 23 583
  • 6 652
  • 62

Krzemowa terapeutka. Informatyka w psychologii i psychiatrii

Spread the love

Strefę ludzkiego psyche postrzegamy jako jeden z naszych najbardziej skomplikowanych aspektów. Coś bardzo osobistego i trudnego do zbadania. Informatyka z drugiej strony jest nauką z gruntu ścisłą i techniczną, opierającą się na badaniach ilościowych. Mimo to przez ostatnie lata naukowcy poszukują zastosowań technik informatycznych w psychologii i psychiatrii. Czy w dziedzinach tak wrażliwych możemy zaufać sztucznej inteligencji? Jakie kryteria muszą spełniać narzędzia informatyczne, by nie krzywdzić pacjentów?

Przestrzeń dla informatyki
Zaburzenia psychiczne są jednymi z największych problemów stojących przed współczesną medycyną. Są one obciążeniem zarówno dla dotkniętych nimi osób, jak i całego systemu opieki zdrowotnej ze względu na wysokie koszty terapii i powszechność zaburzeń. Zgodnie z szacunkami aż 30% dorosłych [1] doświadczy w swoim życiu jednego z zaburzeń związanych z nastrojem, lękami lub spożyciem substancji. Możliwości lekarzy są ograniczone, a osoby z problemami psychicznymi szczególnie potrzebują coraz większego wsparcia – liczba osób z depresją, najpowszechniejszą chorobą psychiczną, wzrosła w latach 2005-2015 o aż 15% [5]. W takiej sytuacji medycyna mimo powściągliwych głosów [2] sięga po rozwiązania informatyczne mogące odciążać lekarzy w kwestiach, które niekoniecznie wymagają udziału człowieka. Jak opisuje artykuł “Artificial Intelligence in Psychiatry” [6] takie obszary znajdujemy zarówno w diagnozie, profilaktyce, jak i terapii. Przyjrzyjmy się więc konkretnym rozwiązaniom.

Unowocześniona diagnoza
Tradycyjne metody diagnozy chorób psychicznych w psychologii opierają się głównie o metody jakościowe, czyli wywiad z pacjentem. Jest to z samej natury nieprecyzyjne, gdyż wymaga samoświadomości oraz obiektywnej samooceny przez pacjenta, co jest dodatkowo utrudnione w przypadku osób z problemami mentalnymi. Nawet psychometria, poddziedzina psychologii tworząca testy psychologiczne, a zatem wydawałoby się ilościowa, opiera się często o pytania jakościowe, np. podawanie w skali Likerta “średniego dobowego poziomu aktywności” od 1 do 5. Brak jakichkolwiek pomiarów znacząco utrudnia diagnozę, nawet do tego stopnia, że nie istnieją do końca standardowe procedury. Istnieją oczywiście metody pomiarowe, używane w psychiatrii, wykorzystujące np. rezonans magnetyczny MRI w celu diagnozy schizofrenii [7]. Ich późniejsza analiza jest jednak dokonywana ręcznie, przez lekarzy-ekspertów, co wymaga specjalistycznego przeszkolenia i powoduje znaczne koszty ze względu na same procedury.

W ostatnich latach smartfony, smartwatche, inteligentne zegarki i inne urządzenia “wearables” stały się powszechne w naszym życiu. Nietrudno znaleźć osoby noszące przy sobie inteligentne bransoletki przez całą dobę, choćby żeby sprawdzać liczbę pokonanych codziennie kroków. Naukowcy dostrzegli niezwykły potencjał tych technologii, znanych też jako Internet of Things (IoT), do zbierania cennych danych diagnostycznych. Dają one możliwość monitorowania pacjenta przez całą dobę oraz dostarczają obiektywnych, ilościowych danych. Dane takie są z technicznego punktu widzenia szeregami czasowymi, a zatem są praktycznie w pełni anonimowe, co ułatwia też ich analizę w ramach open science. Są to np. zbiory Depresjon [8] oraz Psykose [9], z użyciem których powstały liczne prace naukowe, np. [11].

Można niestety zauważyć, że te zbiory danych są bardzo małe – zawierają dane od zaledwie 55 oraz 54 pacjentów. Pojawia się zatem pytanie – jak uczciwie mierzyć na nich jakość algorytmów? Nie jest to tylko problem tych konkretnych zbiorów – większość zbiorów używanych w badaniach związanych ze zdrowiem psychicznym ma zaledwie dziesiątki, góra setki próbek. Próba stworzenia komercyjnego produktu diagnostycznego wymaga zagwarantowania odpowiedniej skuteczności, jednak samo wyznaczenie metryk skuteczności oraz ich poprawne obliczenie stanowi poważne wyzwanie. Poważne wątpliwości etyczne może budzić możliwość zawyżania wyników pod publikacje naukowe, które może być nawet niecelowe, a wynikać ze zbyt małych rozmiarów zbiorów danych. Nawet dla uczciwych badań problemem jest niezbalansowanie zbiorów danych – osób chorych jest znacznie mniej niż zdrowych, a to wymaga użycia odpowiednich metryk jakości, co wymaga dodatkowej specjalistycznej wiedzy. Częstą praktyką jest też niestety podawanie skuteczności klasyfikacji np. pojedynczych dni (czy pomiar z doby wskazuje na depresję, czy też nie), a nie pełnej diagnozy pacjenta. Co prawda daje to lepsze wyniki i lepiej wygląda na konferencjach, ale trzeba zapytać – po co komu taka klasyfikacja w praktyce, i jak bardzo może zaszkodzić pacjentom nadmierna wiara w predykcje takiego modelu?

Nawet w przypadku modeli faktycznie skutecznych, pojawia się inny problem – same dane ilościowe prawdopodobnie nie wystarczą do diagnozy chorób psychicznych, które często dają skrajnie różne objawy u różnych osób czy płci (np. ADHD u kobiet i mężczyzn). Opinia lekarza dalej będzie miała bardzo duże znaczenie, ze względu na potrzebę indywidualnego podejścia, szczególnie ważnego w psychologii i psychiatrii. Lekarz musi zaufać sztucznej inteligencji, aby wykorzystać ją skutecznie. Pojawia się jednak problem, czy nie zaufa jej zbyt bardzo. Model uczenia maszynowego siłą rzeczy wykrywa typowe wzorce, z czego lekarze muszą sobie zdawać sprawę. Trudną kwestią etyczną jest, jak bardzo lekarz może z czystym sumieniem ufać AI, oraz kto ponosi odpowiedzialność za zbyt duże, lub niewystarczające, zaufanie do predykcji modelu.

Profilaktyka w erze nowych technologii

We współczesnych realiach jesteśmy narażeni na zagrożenia psychiczne w środowisku wirtualnym, w którym komunikujemy się coraz częściej, a być może już najczęściej. Anonimowość, możliwość plotek-“virali” oraz łatwość dostępu do niezweryfikowanych informacji ułatwiają negatywne wpływanie na stan psychiczny innych ludzi. O ile znaczna część z nas wręcz odruchowo ignoruje trolli czy hejterów, to duże grono osób o dużej wrażliwości emocjonalnej jest szczególnie narażone na platformach społecznościowych na różne formy nękania. Przeciwdziałanie zjawisku cyberbullingu to jedno z najważniejszych wyzwań w profilaktyce zdrowia psychicznego w sieci [12].

Zagadnienie to można rozważać z perspektywy przetwarzania języka naturalnego (NLP), czyli wykorzystania narzędzi AI do analizy języka, jego semantyki i informacji w nim zawartych. Klasyfikacja, czy tekst nosi znamiona cyberbullingu, jest jednak zagadnieniem bardzo trudnym nawet dla tej, już bardzo złożonej z natury, dziedziny. W języku polskim znany konkurs PolEval w roku 2019 zaproponował taki zbiór danych z polskiego Twittera [9]. W celu pomocy w oznaczaniu tweetów wyróżniono, np. wyłudzanie informacji (phishing), groźbę ujawnienia informacji prywatnych (doxxing), ataki personalne, groźby, szantaże, szyderstwa, plotki i insynuacje oraz wulgarne obelgi. Już sama ta lista pokazuje, jak szeroki i różnorodny zakres może mieć cyberbulling, co pokazuje trudność tego zadania. Najlepszy wynik z konkursu osiągnął precyzję (precision) 66.67% oraz czułość (recall) 52.24%, są to więc wyniki pozostawiające wiele do życzenia.

Niewątpliwie kwestię problematyczną pod względem etycznym stanowi spór pomiędzy profilaktyką i przeciwdziałaniu nękaniu, a wolnością słowa. Skuteczność systemów jest lepsza lub gorsza, więc pozostawienie możliwości moderacji tylko im jest niesłuszne. Całkowita rezygnacja z takich rozwiązań jest z drugiej strony nie tylko równie wątpliwa, ale także po prostu niewykonalna (przy alternatywie sprawdzania ręcznego przez ludzi) przy obecnej skali social mediów. Oczywiście algorytmy mogą zwracać pewność co do swoich predykcji, nadal jednak pozostaje pytanie – gdzie ustalić próg i wedle jakich kryteriów?

Z ludzkiego na maszynowy

Kolejnym narzędziem opartym na dokonaniach dziedziny NLP są chatboty. Są to programy wchodzące w interakcję językową z ludźmi. Jej charakter może być różny w zależności o konkretnej implementacji, ale możemy je ogólnie podzielić na proste, które opierają się na określonych z góry regułach zarówno w kwestii przetwarzania tekstu jak i formułowania odpowiedzi  oraz te oparte uczenie głębokie (Deep Learning), które gromadzą wiedzę i adaptują się wraz z kolejnymi rozmowami. Te pierwsze są bardzo przewidywalne z perspektywy ich twórcy i w dużej mierze służą jako rozbudowane interfejsy do jakiejś wiedzy eksperckiej – mogą na przykład podać maila do terapeuty. Daleko im więc do odpowiednika ludzkiego terapeuty. Taką funkcję mogłyby pełnić modele SI, które wypowiadają się w sposób bardziej ludzki i jednocześnie dają rozmówcy komfort anonimowej konwersacji. Dojrzałość takich systemów jest jednak dalej kwestią otwartą. Jako przykład przeciw niech posłuży sytuacja sprzed kilku lat: firma Microsoft zamieściła w serwisie Twitter konto inteligentnego chatbota Tay, który miał się uczyć wraz z rozmawianiem z kolejnymi użytkownikami. Nie minęły dwa dni a nauczony niepoprawnych politycznie tweetów robot został wycofany przez firmę z medium społecznościowego, na który okazał się niewystarczająco przygotowany.

https://twitter.com/geraldmellor/status/712880710328139776?s=20&t=pInqpclMMFhCkccFRkWKIQ

 

Mimo takich incydentów sztuczna inteligencja dalej budzi w środowisku medycznym duży entuzjazm. W swoim artykule Allamira Hajjar [3] wskazuje na 6 głównych zastosowań chatbotów w medycynie widocznych na grafice poniżej.

W momencie pisania tego artykułu na rynku dostępnych jest już wiele aplikacji opartych na chatbotach, które pomagają pacjentom w zróżnicowanych obszarach: OneRemission dostarcza pacjentom z rakiem informacje o diecie i ćwiczeniach przygotowanych przez ekspertów a Youper monitoruje i poprawia zdrowie emocjonalne użytkowników między innymi przez personalizowane rozmowy.

Droga do odpowiedzialności
Mając na uwadze ograniczenia sztucznej inteligencji i potrzebę interdyscyplinarnej współpracy do przygotowania narzędzi dla medycyny nie dziwi, że mimo zapotrzebowania oraz ogólnego entuzjazmu konkretnych rozwiązań jest dalej niewiele. Świadomi tego naukowcy starają się przygotować strukturę, na bazie której mają powstawać odpowiedzialne narzędzia dla medycyny wykorzystujące sztuczną inteligencję. W artykule “Do no harm: a roadmap for responsible machine learning for health care” [4] jako kolejne kroki wskazano:

  1. Odpowiednie określenie problemu – często naukowcy skupiają się na zadaniach, na które widzą już gotowe rozwiązania zamiast określić przydatność opracowanego modelu w praktyce. Aby odpowiednio nakreślić problem, należy zaangażować wiele stron problemu (pacjenci i ich rodziny, ubezpieczyciele itp.) już na początku tworzenia narzędzia.
  2. Opracowywanie przydatnego rozwiązania – szczególną uwagę w tym kontekście należy zwrócić na dane medyczne, na których modele sztucznej inteligencji są uczone. Kwestia ta była omówiona szerzej w poprzednich punktach.
  3. Wzięcie pod uwagę etycznych następstw – wyeliminowanie stronniczości modeli na podstawie liczności i typu grup, od których zbieramy dane (znane przykłady modeli dyskryminujących rasowo itp.). Czy to etyczne uzupełniać domyślnie dane np. o tym, czy osoba jest palaczem albo czy ma HIV?
  4. Rygorystyczna ocena i rozważne raportowanie – umiejętne rozdzielenie zbiorów danych, raportowanie zarówno tego, gdzie model radzi sobie dobrze, a gdzie źle. Użycie specjalnych metryk jakości dla konkretnych zadań.
  5. Odpowiedzialne wdrożenie – przed wykorzystaniem modelu w pracy z pacjentami należy przez pewien czas testować go w trybie cichym, to znaczy przewidywać wyniki na realnych danych, ale bez użycia ich w praktyce, a zamiast tego z oceną ekspercką, czy narzędzie działa poprawnie.
  6. Dotarcie na rynek – aby uzyskać dostęp do rynku, produkty muszą przejść proces zatwierdzenia przez organizacje rządowe. Dodatkowo przez użytkowników preferowane będą modele, które są w stanie wytłumaczyć swoje działanie.

Osoby obeznane z tematyką sztucznej inteligencji dostrzegą, że przedstawione standardy są wysokie i prezentują różne problemy natury technicznej. Nie są to jednak bariery nie do przejścia. Przez ostatnie lata powstają coraz to nowe narzędzia informatyczne dla medycyny, które biorą pod uwagę powyższe punkty. Możemy więc liczyć, że za kilka, może kilkanaście lat będziemy mogli zaufać sztucznej inteligencji, że wspomoże nas w nawet tak trudnych kwestiach, jak psychologia i psychiatria.

Bibliografia

  1. Kessler RC, Amminger GP, Aguilar-Gaxiola S, Alonso J, Lee S, Ustun TB. “Age of onset of
    mental disorders: a review of recent literature”. Curr Opin Psychiatry. 2007;20(4):359–64
  2. Metz C, Smith CS. “A.I. can be a boon to medicine that could easily go rogue”. The New York Times. 2019 Mar 25;B5.
  3. Alamina Jouman Hajjar. “Top 6 Use Cases & Examples of Chatbots in Healthcare in 2022”. AI Multiple. 2021 March.
  4. Wiens, J., Saria, S., Sendak, M. et al. Do no harm: a roadmap for responsible machine learning for health care. Nat Med 25, 1337–1340 (2019). https://doi.org/10.1038/s41591-019-0548-6
  5. World Health Organization “Depression and other common mental disorders: global health estimates”, 2017.
  6. Fakhoury, M. (2019) “Artificial Intelligence in Psychiatry”
  7. Shenton ME, Dickey CC, Frumin M, McCarley RW. A review of MRI findings in schizophrenia. Schizophr Res. 2001;49(1-2):1-52. doi:10.1016/s0920-9964(01)00163-3
  8. Garcia-Ceja, E., Riegler, M., Jakobsen, P.,  Torresen, J., Nordgreen, T., Oedegaard, K. J., Fasmer, O. B. “Depresjon: A Motor Activity Database of Depression Episodes in Unipolar and Bipolar Patients”. Proceedings of the 9th ACM on Multimedia Systems Conference, ACM, MMSys’18, 2018, ACM, doi: 10.1145/3204949.3208125
  9. Jakobsen, P., Garcia-Ceja, E., Stabell, L. A., Oedegaard, K. J., Berle, J. O., Thambawita, V., Hicks, S. A., Halvorsen, P., Fasmer O., B. Riegler, M. A. “PSYKOSE: A Motor Activity Database of Patients with Schizophrenia”. 2020 IEEE 33rd International Symposium on Computer-Based Medical Systems (CBMS), IEEE, 2020, pp.~303–308, doi: 10.1109/CBMS49503.2020.00064
  10. M. Ptaszynski, A. Pieciukiewicz, P. Dybała “Results of the PolEval 2019 Shared Task 6: First Dataset and Open Shared Task for Automatic Cyberbullying Detection in Polish Twitter”
  11. J. Adamczyk, F. Malawski “Comparison of Manual and Automated Feature Engineering for Daily Activity Classification in Mental Disorder Diagnosis”, doi: https://doi.org/10.31577/cai_2021_4_850
  12. “Instagram, Facebook and Twitter struggle to contain the epidemic in online bullying”

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze

  1. Ciekawe jest porównanie tradycyjnej terapii z nowymi rozwiązaniami opartymi na modelach językowych. Warto zauważyć, że mimo obiecujących wyników, istnieją ważne…