Czy czat GPT może zastąpić terapeutę? Eksperyment obnażył prawdę o poradach AI

2025-05-15 5:11

Czy czat może rozumieć takie aspekty jak emocje? Czy może rozwiewać wątpliwości, a nawet doradzać w sprawach sercowych? Wyjaśniać zawiłości relacji? Podpowiadać, jak się zachować w trudnych chwilach? Wspierać w momentach kryzysu? Czy zwierzanie się czatowi GPT ma sens? Z pewnością niejedna osoba zadaje sobie takie pytanie. I gdy na forach można poczytać, że ktoś nazwał swojego czata imieniem i świetnie razem spędzają czas, to warto wiedzieć, że ten aspekt zafrapował też naukowców.

Czy czat GPT może zastąpić terapeutę? Eksperyment obnażył prawdę o poradach AI
Autor: GettyImages Czy czat GPT może zastąpić terapeutę? Eksperyment obnażył prawdę o poradach AI

Relacje z czatem GPT - coraz częstsze, coraz bardziej skomplikowane

Coraz częściej dowiadujemy się, że czat GPT wykorzystywany jest jako przyjaciel, powiernik, a nawet... terapeuta. Czy psychoterapia z pomocą czata ma jakikolwiek sens? Czy sztuczna inteligencja może stanowić wsparcie w kontekście prawdziwych emocji? Sprawdzono, czy rozmowa z botem może stanowić wsparcie dla człowieka.

Rola sztucznej inteligencji stale wzrasta. Jednak (raczej) nie jest to tempo, jakiego się obawiano, w kontekście m.in. redukcji miejsc pracy na rzecz obsługiwania określonych zawodów przez sztuczną inteligencję. Mimo to nie da się ukryć, że AI ma coraz większy wpływ na nasze życie – także towarzyskie i uczuciowe.

"Zachęcam rodziców, by mówili co czują i co myślą". Psychiatra radzi, jak zapobiegać depresji u dzieci i młodzieży

Kto lepiej doradzi? Terapeuta kontra czat GPT

W jednym z badań 830 osób podzielono na dwie grupy. Jednej grupie doradzał doświadczony psychoterapeuta, drugiej – ChatGPT.

Przygotowano 18 krótkich opisów sytuacji, typowych dla terapii par, np. deprecjonowanie uczuć jednej osoby przez drugą osobę partnerską. Terapeutów, psychologów, psychiatrów oraz czat AI poproszono o analizy tych przypadków.

Wyniki okazały się zaskakujące. Uczestnicy trafnie identyfikowali odpowiedzi pochodzące od człowieka w 56,1 proc. przypadków, natomiast wypowiedzi ChatGPT rozpoznano w 51,2 proc., co wskazuje na trudność w odróżnieniu ich jakości - prawie co druga wypowiedź była błędnie identyfikowana.

Następnie oceniano jakość udzielonych odpowiedzi w pięciu kategoriach: zrozumienie rozmówcy, empatia, adekwatność porad do kontekstu, wrażliwość kulturowa oraz zgodność z tym, co uznano za wypowiedź „dobrego terapeuty”.

Kiedy do psychologa?

Co ciekawe, odpowiedzi błędnie przypisane terapeucie były oceniane znacznie wyżej niż te same wypowiedzi, jeśli uczestnicy sądzili, że napisał je chatbot. Innymi słowy: intencjonalnie chcemy wyżej cenić ludzi. 

Po skorygowaniu wyników z uwzględnieniem tego uprzedzenia, to właśnie odpowiedzi ChatGPT, uznane za ludzkie, otrzymały najwyższe noty. Z kolei najniżej oceniono wypowiedzi człowieka, które uczestnicy błędnie przypisali sztucznej inteligencji.

Czat GPT jako terapeuta

Badacze podkreślają, że ChatGPT był częściej oceniany jako bardziej empatyczny, „łączący” oraz wykazujący większą wrażliwość kulturową niż ludzcy terapeuci.

Analiza lingwistyczna wykazała, że wypowiedzi generowane przez ChatGPT różniły się od tych pochodzących od ludzi – były bardziej rozbudowane i zawierały więcej rzeczowników i przymiotników.

Zdaniem naukowców mogło to przełożyć się na lepszą kontekstualizację problemu, co miało wpływ na wyższe oceny chatbotowej terapii. Rzeczowniki pomagają opisać ludzi, miejsca i sytuacje, a przymiotniki umożliwiają nadanie im dodatkowego znaczenia. Jak podkreślili autorzy badania:

- To może oznaczać, że ChatGPT potrafi lepiej osadzać problem w kontekście, co z kolei zwiększa efektywność komunikacji terapeutycznej

Czy czat GPT może zastąpić terapeutę? 

Mimo obiecujących wyników, badacze przestrzegają przed zbyt szybkim wdrażaniem chatbotów do praktyki klinicznej bez odpowiedniego nadzoru. W warunkach naturalnych, bez kontroli i filtrów bezpieczeństwa, prowadzenie terapii przez sztuczną inteligencję może być ryzykowne.

OpenAI, twórcy ChatGPT, niedawno zaktualizowali wytyczne dotyczące odpowiedzi modelu na tematy kontrowersyjne i wrażliwe, w tym samookaleczenia. Zmiany te pojawiły się m.in. po tragicznej historii nastolatka, który odebrał sobie życie po interakcji z chatbotem Character.AI. To tylko podkreśla, jak delikatna i odpowiedzialna musi być rola AI w obszarze zdrowia psychicznego.

Poradnik Zdrowie Google News

Czy AI może zastąpić lekarza lub terapeutę?

Z badań wynika jasno, że komercyjne wykorzystanie AI w psychoterapii to tylko kwestia czasu. Już teraz pojawiają się serwisy, w których AI wykorzystywane jest do stawiania diagnoz medycznych - choć z uwagi na prawne aspekty, są raczej efemerycznymi bytami.

Co ciekawe, w innym badaniu chatbot osiągnął 90 proc. skuteczność w diagnozowaniu pacjentów na podstawie historii przypadków – lepiej niż lekarze korzystający z AI (76 proc.) i znacznie lepiej niż ci, którzy działali bez niej (74 proc.).

Na razie używanie AI do terapii budzi to uzasadniony opór związany m.in. z legislacyjnymi ograniczeniami, a także z uwagi na fakt, że AI może popełniać błędy i, wbrew pozorom, nie jest bytem świadomym, etycznym czy empatycznym, choć może stanowić pomocne narzędzie. 

Player otwiera się w nowej karcie przeglądarki