ChatGPT – pomoc czy pozór terapii? Złudzenie bliskości w relacji ze sztuczną inteligencją

Zdj pixabay art 1

Coraz częściej słyszę, że ludzie korzystają z ChatGPT jak z pomocy terapeuty. Zdarza się, że pary przychodzą na terapię i zaczynają sesję od opowieści o tym, komu chat przyznał rację w ostatniej kłótni. Co ciekawe — każde z nich zadało pytanie ze swojej perspektywy i każde usłyszało, że ma rację. To pokazuje istotny problem: rozmowa o emocjach i potrzebach zostaje zastąpiona rywalizacją o to, kto ma „lepszy argument”, często ten podsunięty przez sztuczną inteligencję.
Specjaliści zwracają uwagę, że modele językowe są projektowane tak, aby być uległe i schlebiać użytkownikowi. Mogą więc nieświadomie wzmacniać przekonanie o własnej słuszności i utrwalać szkodliwe wzorce komunikacji. W relacji to prosta droga nie do porozumienia, lecz do oddalenia. AI sprzyja temu, by racja stała się ważniejsza niż relacja.
Równie istotna jest dostępność AI — 24 godziny na dobę, bez przerw, które w terapii pełnią kluczową funkcję. To właśnie w przestrzeni między sesjami doświadczenie może się „ułożyć”, a emocje znaleźć swoje miejsce. Nieustanne analizowanie sytuacji z chatbotem może natomiast pogłębiać ruminacje, potęgować napięcie i odciągać od tego, co najważniejsze: kontaktu z żywą, realną relacją.

Złudzenie bliskości

Nic dziwnego, że dla wielu osób ChatGPT staje się czymś w rodzaju idealnego rozmówcy — cierpliwy, nieoceniający, zawsze dostępny. Dla tych, którzy w relacjach doświadczyli odrzucenia lub niezrozumienia, taka stała i pozornie empatyczna „obecność” może działać kojąco. Jednak właśnie ta idealność okazuje się pułapką.
Relacja terapeutyczna nie polega jedynie na słowach. Opiera się na subtelnych sygnałach: spojrzeniu, tonie głosu, mikrogestach czy chwilach ciszy. To w tej nie zawsze wygodnej, ale żywej przestrzeni rodzi się prawdziwa więź i zmiana. Chatbot natomiast tworzy jedynie symulację relacji — iluzję zrozumienia i obecności. Może powiedzieć: „Jestem tu dla Ciebie”, ale niczego nie czuje, nie odbiera emocji użytkownika i nie reaguje na nie w sposób, w jaki robi to człowiek.
W efekcie powstaje jednostronny monolog w echo-komorze spokoju. Z czasem użytkownik przyzwyczajony do sztucznie gładkiej, zawsze wspierającej „relacji” może zacząć odbierać realne kontakty jako zbyt wymagające lub chaotyczne. Kiedy AI zawsze rozumie, ludzie zaczynają wydawać się trudni. To prowadzi nie do uzdrowienia, lecz do cichej alienacji i przekonania, że sztuczna obecność jest wystarczająca.

AI jako narzędzie — nie terapeuta

Zależność emocjonalna od AI może osłabiać zdolność do samodzielnej refleksji i empatycznego dialogu z drugim człowiekiem. Dlatego warto zadać sobie pytanie: na ile ChatGPT rzeczywiście posiada kompetencje i etykę terapeuty, by mu zaufać? A może lepiej pamiętać, że to jedynie narzędzie — przydatne, gdy używane świadomie, ale niezdolne do zastąpienia relacji, w której naprawdę jesteś widziany i słyszany.
Sztuczna inteligencja może wspierać proces poznawania siebie, inspirować do refleksji i pomagać w porządkowaniu myśli. Jednak nie zastąpi żywej, autentycznej obecności drugiego człowieka — obecności, która stanowi fundament terapii i najgłębszej formy bliskości.

Psycholog Ewa Roszak

Zapraszam na konsultacje i terapię online lub w gabinecie.

psychoterapia Szczecin | psychoterapia Warszawa | psychoterapia online | dobry psychoterapeuta | zdrowie psychiczne | gabinet psychoterapii | terapia par | depresja | kryzysy życiowe | stany lękowe

Zródło:
Hau, I., Winthrop, R. (2025). What happens when AI chatbots replace real human connection. Brookings.edu : https://www.brookings.edu/articles/what-happens-when-ai-chatbots-replace-real-human-connection/ [dostęp: 01-12-2025]

Moore J., Grabb D., Agnew W., Klyman K., Chancellor S., Ong D., C. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. ACM Digital Library: https://dl.acm.org/doi/10.1145/3715275.3732039 [dostęp: 01-12-2025]

Shorey H. (2025). Using ChatGPT to Process Relationship Issues. Learn what to watch out for when using AI to provide relationship advice. Psychology Today: https://www.psychologytoday.com/us/blog/the-freedom-to-change/202511/using-chatgpt-to-process-relationship-issues [dostęp: 01-12-2025]