Czy rozmowa z AI może wspierać terapię? A może opóźniać moment zgłoszenia się po realną pomoc? Gdzie przebiega granica między narzędziem a substytutem relacji terapeutycznej? O rosnącej popularności chatbotów wśród pacjentów, ryzyku klinicznym w sytuacjach kryzysowych oraz o tym, czego algorytm nigdy nie zastąpi w leczeniu człowieka, rozmawiamy z prof. dr hab. n. med. Napoleonem Waszkiewiczem.

Prof. dr hab. n. med. Napoleon Waszkiewicz – psychiatra i psychoterapeuta, kierownik Kliniki Psychiatrii Uniwersytetu Medycznego w Białymstoku. Specjalizuje się w leczeniu zaburzeń nastroju, suicydologii oraz neurobiologii depresji.
ikona lupy />
Prof. dr hab. n. med. Napoleon Waszkiewicz – psychiatra i psychoterapeuta, kierownik Kliniki Psychiatrii Uniwersytetu Medycznego w Białymstoku. Specjalizuje się w leczeniu zaburzeń nastroju, suicydologii oraz neurobiologii depresji. / Materiały prasowe
Czy w swojej praktyce spotyka się Pan z pacjentami, którzy korzystają ze sztucznej inteligencji jako formy wsparcia psychicznego?

Prof. Napoleon Waszkiewicz: Tak, choć na razie raczej w formie ogólnych chatbotów niż wyspecjalizowanych narzędzi terapeutycznych. Te profesjonalne, tworzone z myślą o psychoterapii – przynajmniej w języku polskim – nie są jeszcze szeroko dostępne, a często wymagają opłat. Natomiast z ogólnych chatbotów pacjenci korzystają.

Widzę w środowisku terapeutów pewien niepokój. Z jednej strony to narzędzie dostępne 24 godziny na dobę, z drugiej – nie mamy tu do czynienia z człowiekiem, z jego etyką, odpowiedzialnością i realną empatią. Chatbot może empatię opisać, może ją językowo symulować, ale nie jest w stanie jej odczuwać. To zasadnicza różnica.

Czy - mimo tych obaw - widzi Pan potencjał w wykorzystaniu takich narzędzi w terapii?

W podejściu poznawczo-behawioralnym – być może tak. CBT jest podejściem mierzalnym, w pewnym sensie skalowalnym, opartym na strukturze. Tu łatwiej wyobrazić sobie wsparcie technologiczne. Natomiast w terapii psychodynamicznej, systemowej czy analitycznej rola relacji, przeniesienia, przeciwprzeniesienia i realnej obecności terapeuty jest kluczowa. Tego algorytm nie zastąpi.

Widzę jednak pewne sytuacje, w których takie narzędzie mogłoby być pomocne – na przykład w miejscach, gdzie dostęp do psychoterapii jest ograniczony, w małych miejscowościach, wśród osób starszych, które mają trudności z poruszaniem się. W takich przypadkach chatbot może być formą wsparcia, szczególnie jeśli zmniejsza poczucie samotności. Ale pojawia się pytanie o granice i o odpowiedzialność.

Jakie widzi Pan największe zagrożenia kliniczne w "psychoterapii z chatbotem"?

Jednym z najpoważniejszych ryzyk jest sytuacja kryzysowa – na przykład myśli samobójcze. U młodych osób samobójstwo jest jedną z głównych przyczyn zgonów. U osób starszych próby samobójcze są rzadziej podejmowane, ale znacznie częściej kończą się śmiercią.

W takim kontekście kluczowe jest pytanie: czy chatbot potrafi właściwie rozpoznać zagrożenie i zareagować? Czy odeśle do specjalisty? Czy przerwie rozmowę? Czy ponosi jakąkolwiek odpowiedzialność? W przypadku terapeuty czy lekarza odpowiedzialność jest jasna. W przypadku chatbota – obowiązuje regulamin. To zasadnicza różnica.

Czy rozmowa z AI może opóźniać decyzję o zgłoszeniu się po pomoc?

Może. Pacjent może „polubić” chatbota. Może preferować jego ugodowość. Algorytm podąża za narracją użytkownika, nie konfrontuje w sposób terapeutyczny. W terapii, gdy pacjent mówi: „Jestem beznadziejny”, nie odpowiadamy: „Nie, to nieprawda”. Przyglądamy się temu przekonaniu, analizujemy dowody, kontekst, emocje. Chatbot często zaczyna raczej przekonywać lub podtrzymywać rozmowę w sposób mniej pogłębiony. Istnieje ryzyko, że zamiast skłonić do kontaktu z profesjonalistą, taka rozmowa stanie się substytutem – i realna pomoc zostanie odroczona.

A co z przekazem niewerbalnym?

To ogromna część psychoterapii. Tempo mówienia, pauzy, drżenie głosu, ruchy ciała, mimika – to wszystko niesie informacje. Nawet w konsultacji online część tego jest widoczna.

Chatbot tego nie widzi. Odpowiada wyłącznie na tekst. Nie odczyta przyspieszonej mowy, bezsenności, napięcia psychoruchowego. Być może w przyszłości technologia będzie analizowała tembr głosu czy strukturę języka – zresztą sami prowadziliśmy badania nad diagnozowaniem depresji i otępienia na podstawie cech mowy – ale na dziś tego nie ma w powszechnym zastosowaniu terapeutycznym.

Czy chatbot może utrwalać zniekształcenia poznawcze lub objawy, których doświadcza pacjent?

Może, zwłaszcza jeśli jest nadmiernie ugodowy. Jeśli osoba prezentuje myślenie paranoiczne czy wielkościowe, algorytm może – nieintencjonalnie – wejść w tę narrację, zamiast ją delikatnie weryfikować. W terapii nie konfrontujemy brutalnie, ale też nie współtworzymy urojeniowej struktury. To subtelna różnica. Chatbot może jej nie wychwycić.

Jednym z filarów psychoterapii jest relacja terapeutyczna. Czy korzystanie z AI w trakcie terapii może osłabiać ten sojusz?

Jeśli jest omawiane w relacji terapeutycznej – nie musi. Pacjent może powiedzieć: „Sprawdzałem coś w chatbocie, co Pan na to?”. Wtedy to staje się materiałem do pracy. Ale jeśli powstaje równoległa, nieomawiana relacja – „drugi terapeuta” – może to osłabiać proces. Szczególnie gdy chatbot podtrzymuje narrację pacjenta, której terapeuta próbuje się przyjrzeć bardziej krytycznie.

Czego algorytm nie zastąpi w leczeniu człowieka?

Wielowymiarowego kontaktu z drugim człowiekiem. Empatii rozumianej nie jako opis, lecz jako doświadczenie. Odpowiedzialności. Intuicji klinicznej. Człowiek widzi pacjenta od momentu wejścia do gabinetu: sposób chodzenia, napięcie ciała, sposób siadania. To wszystko ma znaczenie diagnostyczne. Algorytm tego nie ma.

Czy poleciłby Pan swoim pacjentom korzystanie z takich narzędzi?

Z ogólnego chatbota – nie jako formy terapii. Można zapytać o informacje, o możliwe wyjaśnienia objawów, ale nie traktowałbym tego jako terapii. Jeśli chodzi o wyspecjalizowane narzędzia terapeutyczne – podchodzę do nich z dużą ostrożnością. Być może w sytuacjach braku dostępu do realnej terapii mogłyby być wsparciem. Ale na dziś nie mam do nich wystarczającego zaufania. Nie zastąpią relacji terapeutycznej. A w psychiatrii i psychoterapii relacja jest podstawą.