Ana Carolina Alcici
Psicóloga clínica. Psicanalista em formação pela SPRJ. Membro da Trieb Mineira.

 

Muito se tem falado sobre o uso da inteligência artificial (IA) no dia a dia e um fenômeno em particular chama a atenção: pessoas que têm usado o ChatGPT como se fosse um psicólogo. É comum encontrar relatos de quem “conversa” com a IA sobre sentimentos, traumas, crises emocionais, buscando orientações, desabafando ou tentando entender o próprio sofrimento.

Curiosa com isso, perguntei ao próprio ChatGPT como ele age nessas situações. Um trecho da resposta me chamou a atenção:

“Minha resposta é sempre baseada em padrões de linguagem. Eu tento gerar uma resposta que seja acolhedora e sem julgamentos. Mas é importante dizer: eu não tenho acesso ao inconsciente, não capto contradições, não reconheço defesas psíquicas, nem consigo trabalhar o que está nas entrelinhas. Tudo o que eu tenho são palavras no texto.”

Esse trecho traz reflexões. Vivemos numa sociedade que valoriza desempenho, produtividade e controle emocional, onde falar de sofrimento muitas vezes é visto como fraqueza. Os discursos de autoajuda e positividade tóxica reforçam a ideia de que devemos ser autossuficientes e que temos total controle sobre o que pensamos e sentimos. “É só querer.”

Nesse cenário, a IA oferece uma ilusão de acolhimento rápido: respostas cuidadosas, sem julgamentos, sem contradições, sem a imprevisibilidade do encontro com o outro humano. Mas o sofrimento psíquico não se resolve com uma resposta pronta. Ele precisa de tempo, de elaboração, de vínculo. Precisa de alguém que escute de verdade, que tolere o silêncio, as ambiguidades, os afetos. Em um mundo onde o ”eu” reina, a relação verdadeira com o outro exige coragem. E é revolucionária.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *