Atendimento psicológico via GPT: especialista explica por que IA não deve ser sua terapeuta
Preocupação com o tema tem crescido no Brasil, de modo que até mesmo Conselho Federal da profissão precisou intervir

Após tentar tirar a própria vida, o jovem Adam Raine, de 16 anos, mostrou os hematomas que as cordas lhe fizeram no pescoço para o Chat GPT, o qual vinha usando como confidente, amigo, e terapeuta pelos últimos meses. Ao analisar a foto enviada, o sistema ainda deu dicas de que roupas usar para esconder as marcas.
Meses depois, em abril deste ano, ele deu cabo à própria vida, recebendo “conselhos” de como realizar o ato pelo sistema geracional de textos.
Apesar de o caso narrado ter acontecido nos Estados Unidos, o uso indiscriminado de ferramentas de Inteligência Artificial como se fossem psicólogos e terapeutas vem preocupando profissionais da área.
Leia também
Tanto é que o Conselho Federal de Psicologia do Brasil tem atuado em campanhas voltadas a conscientização da população quanto aos riscos de confiar tantas informações pessoais a algo literalmente “sem um pingo” de humanidade.
Para a psicóloga e docente no curso de psicologia de UniEVANGÉLICA, Tatiana Valéria, são vários os motivos que levam pessoas, especialmente jovens, a buscarem esse “atendimento” com IA’s, desde financeiros até receio de serem julgados.

Tatiana é mestra em psicologia social e docente na UniEVANGÉLICA. (Foto: Arquivo Pessoal/Tatiana Valéria)
“Esse é o grande diferencial da IA, como o Chat GPT. O computador não apresenta nenhum julgamento. Ele dá respostas a um usuário que já conhece, sabe que resposta vai agradar, não há uma reflexão ética. Por isso, quando ele ensina a um adolescente como disfarçar os hematomas da corda que usou para tentar se matar, ele [GPT] não quer o desenvolvimento desse jovem, quer só ser palatável, trazer conforto”, disse.
Porém, segundo ela, o desconforto em si é o cerne da psicologia e o que um bom profissional deve estar buscando. As respostas, conversas e questionamentos devem vir sempre com o intuito de fazer o paciente refletir acerca das próprias ações e traumas em um processo, muitas vezes, desconfortável.
Tatiana reforçou que, idealmente, o consultório psicológico é um espaço livre de julgamentos, onde não há certo ou errado com relação ao que pode ser dito. O profissional deve entender as situações narradas e tomar as providências necessárias para ajudar a pessoa a reverter eventuais problemas.
Além disso, essa tentativa das IA’s buscarem sempre respostas que agradem o usuário faz sentido do ponto de vista de como modelos do tipo funcionam.
Isso porque sistemas geracionais não “entendem” conversas ou perguntas como um humano. Eles simplesmente usam dados matemáticos e estatísticos para tentar formar uma frase que faça o máximo de sentido possível, não se atendo necessariamente a verdades ou preceitos éticos.
Mas o que um psicólogo pode fazer e a I.A não?
Deixando a problematização a respeito da complacência das inteligências artificiais de lado, outro ponto crucial abordado pela docente foi o que difere, em termos práticos, a atuação de um psicólogo de carne e osso dos prompts digitais.
“Nós psicólogos devemos seguir um protocolo sempre que houver a menor ideação de pensamentos suicidas. Isso vai desde casos extremos, de pacientes falarem que imaginam como darão cabo da própria vida, até sinais mais sutis, como dizer que ‘quer desaparecer’ ou ‘dormir e não acordar mais’. Um profissional treinado sabe a gravidade da situação e age de imediato para ofertar o tratamento mais adequado”, prosseguiu.
Voltando ao caso de Reiner, ela ilustrou que mesmo ante sinais tão explícitos de que o adolescente cometeria um ato tão extremo, a IA seguiu respondendo os questionamentos com naturalidade, sempre se colocando ao lado do garoto, tal qual fosse a única “pessoa” que de fato o entendesse.
Como Tatiana destacou, os psicólogos estão sujeitos ao Código de Ética da profissão que, embora garanta sigilo e confidencialidade, também compele o profissional a alertar o círculo social próximo do paciente em casos similares.
“Quando a pessoa consegue verbalizar, seja a intenção ou meras ideações, isso por si só é um pedido de socorro. Ela fala algo tão extremo, tão pessoal, na esperança de que alguém faça algo. Claro, as circunstâncias e pormenores seguem sob sigilo, mas primeiro é importante avisar a família sobre o perigo”.
Além disso, ao contrário das IA’s, a docente explicou que profissionais da área entendem a importância de um atendimento integrado, sendo comum encaminhar pacientes para atendimentos psiquiátricos ou em outras áreas, dependendo do caso.
Existe um jeito da IA ajudar na psicologia?
Mesmo com tantas problemáticas levantadas, Tatiana disse não demonizar o uso de IA’s, que podem inclusive ser aliadas em tratamentos psicológicos.
A citar exemplos, ela comentou de uma iniciativa na Inglaterra que utiliza sistemas automatizados como o primeiro canal de atendimento a quem busca tratamento. O sistema analisa o perfil e a situação trazida pelo indivíduo e o guia para serviços de terapia.
Chamado de Limbic Access, o chatbot tem sido amplamente adotada pelo NHS Talking Therapies (o serviço de Terapias de Conversa do Serviço Nacional de Saúde). Ele substitui formulários longos ou ligações iniciais, o que torna o acesso mais fácil, especialmente fora do horário comercial, uma vez que cerca de 40% das solicitações são feitas neste intervalo de tempo.
“É algo a se pensar, não para conduzir o tratamento em si, mas talvez para facilitar que a terapia seja de fato iniciada, por mãos humanas, claro”, finalizou.
Siga o Portal 6 no Instagram: @portal6noticias e fique por dentro das últimas notícias!