Czy AI powinno być Twoim terapeutą?
W ciągu ostatnich lat modele oparte na uczeniu głębokim — tzw. Large Language Models (LLM), m. in ChatGPT czy Claude — stały się niezwykle zaawansowane. Potrafią pisać eseje, kodować, tłumaczyć języki, a nawet prowadzić pozornie empatyczne rozmowy.
Niektórzy zaczęli w nich widzieć przyszłość opieki psychicznej: są dostępne 24/7, tanie i pozbawione ludzkich ograniczeń. Jednak mimo imponujących możliwości, LLM-y nie powinny zastępować psychoterapii z udziałem wykwalifikowanego terapeuty. Dlaczego?
Podstawowa wątpliwość – brak autentycznej relacji terapeutycznej
Psychoterapia to nie zbiór porad, lecz wspólna, często wielomiesięczna praca nad schematami poznawczymi, emocjami i zachowaniami. Wymaga elastycznego planu, ciągłego badania motywacji i dynamicznej reakcji na zmiany. Algorytmy, choć coraz bardziej wyrafinowane, działają na zasadzie prompt–response, co z natury jest interakcją punktową.
Modele potrafią generować empatycznie brzmiące odpowiedzi, ale nie odczuwają empatii. Relacja terapeutyczna opiera się na prawdziwym, dwukierunkowym doświadczeniu emocjonalnym — tzw. przymierzu terapeutycznym. Pacjent czuje się widziany przez konkretną osobę, a nie przez algorytm.
Terapeuci „czytają” sygnały niewerbalne i potrafią dostosować interwencje w czasie rzeczywistym. LLM, działający wyłącznie w tekście (lub z ograniczonym wideo), tych subtelności nie wychwyci. LLM odpowiada na podstawie wzorców statystycznych z tekstu. Nie zna pełnego życiorysu pacjenta, jego historii traum, relacji rodzinnych i kulturowych niuansów – a nawet jeśli zna pewne fakty, nie potrafi intuicyjnie „poczuć” ich ciężaru. Tylko wyszkolony specjalista potrafi ponadto adekwatnie zareagować na zagrożenie życia.
Zagadnienia etyczne
Terapeuci przechodzą wieloletnie szkolenia, podlegają kodeksom etycznym, a ich praca jest regularnie superwizowana. Model językowy nie podlega żadnej formalnej akredytacji ani odpowiedzialności zawodowej. LLM-y mogą „halucynować” — generować przekonujące, ale fałszywe informacje. W obszarze zdrowia psychicznego błędna wskazówka może pogłębić kryzys lub opóźnić uzyskanie pomocy.
Dane o zdrowiu psychicznym to jedne z najbardziej wrażliwych informacji. Sesje terapeutyczne są prawnie chronione tajemnicą zawodową. W przypadku platform LLM nie ma gwarancji, gdzie i jak długo dane będą przechowywane ani kto uzyska do nich dostęp. Ich przetwarzanie przez komercyjne podmioty może prowadzić do nadużyć wielu rodzajów.
Wzbogacenie, nie substytut
LLM-y to przełomowa technologia, która ma potencjał wzbogacić praktykę psychoterapeutyczną, ale w żadnym wypadku nie powinna jej zastępować.
Autentyczna relacja, odpowiedzialność zawodowa, złożoność diagnozy i bezpieczeństwo pacjenta to elementy, których algorytm — przynajmniej dziś — nie jest w stanie w pełni zagwarantować. Dlatego zamiast budować iluzję „terapeuty w chmurze”, powinniśmy wykorzystywać LLM jako narzędzie wspierające specjalistów oraz jako pomost do profesjonalnej pomocy, a nie jej substytut.
—
Jeżeli ten temat Cię zainteresował, polecam zapoznanie się z wywiadem Artura Kurasińskiego z Pawłem Szczęsnym:
