“Chatbots no divã”: IA se populariza como apoio psicológico, mas especialista alerta para os riscos

O Brasil é o país com maior prevalência de depressão na América Latina — e as projeções indicam que esse número deve crescer nos próximos anos. A conclusão faz parte do relatório Depression and Other Common Mental Disorders: Global Health Estimates, publicado pela Organização Mundial da Saúde (OMS).

Segundo o mesmo levantamento, o Brasil também lidera o ranking global de casos de transtorno de ansiedade e mantém altos índices de burnout: cerca de 30% dos trabalhadores brasileiros sofrem com a síndrome do esgotamento profissional.
A pandemia de Covid-19 teve impacto direto nesse cenário. De acordo com a OMS, o primeiro ano da crise sanitária provocou um aumento de 25% nos casos de depressão e ansiedade em escala global.

Com as restrições impostas durante o período — e o aumento significativo do estresse decorrente do isolamento social — o que antes era visto como uma alternativa eventual tornou-se parte da nova realidade: a terapia online.

“A partir daí, surgiu a necessidade — e a evidência — de que é possível realizar sessões de terapia de forma online, transformando o que era apenas uma possibilidade em uma nova realidade e modo de atendimento”, explica Leonardo Gonçalves, psicanalista clínico formado pela Sociedade Paulista de Psicanálise e pós-graduado em Psicanálise e Análise do Contemporâneo pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).

Se, num primeiro momento, a terapia online manteve a estrutura tradicional da relação entre profissional e paciente, hoje ela se reinventa com o uso crescente de ferramentas de inteligência artificial, como os chatbots terapêuticos, que ampliam o alcance e a disponibilidade do cuidado psicológico. Seguindo essa tendência, o “divã” nunca esteve tão acessível — muitas vezes disponível 24 horas por dia, pronto para oferecer suporte emocional em qualquer hora e lugar.

Nos últimos anos, observou-se um crescimento expressivo no uso dessas ferramentas de IA voltadas à saúde mental. Chatbots terapêuticos baseados em IA são programas que simulam conversas com os usuários para oferecer apoio emocional, escuta ativa e até orientações terapêuticas básicas. Utilizando processamento de linguagem natural, conseguem interpretar e responder de forma empática, muitas vezes personalizada.
Os números são reveladores: 1 em cada 10 brasileiros já utilizou chatbots como o ChatGPT, Youper ou Wysa para desabafar ou buscar conselhos emocionais, segundo pesquisa da Talk Inc realizada em 2024. Entre os principais motivos citados estão a solidão, introspecção e a dificuldade de acesso a profissionais da saúde mental.

No entanto, apesar do potencial dessas ferramentas para oferecer alívio imediato, especialistas alertam para os riscos de substituir o atendimento humano por sistemas automatizados.

“A inteligência artificial opera com base em algoritmos e oferece aquilo que considera ser do interesse do usuário, de acordo com dados sistematizados. Falar em substituição [do atendimento humano] é complexo, já que a IA não realiza uma análise individual das vivências e contextos que compõem cada sujeito. Nesse sentido, ela se assemelha mais a um livro de autoajuda: pode ajudar momentaneamente, mas não atua na raiz dos problemas”, argumenta Leonardo Gonçalves.

Para ele, há risco real de a IA, ao sugerir como a pessoa deve agir, acabar reforçando frustrações, sentimentos de inadequação ou até provocar gatilhos psíquicos, agravando sintomas.

“Talvez possamos pensar na IA como um recurso emergencial ou voltado a questões mais pontuais. Mas ela deveria ser programada para acolher e, quando necessário, direcionar a pessoa a um profissional especializado. Aprofundar uma troca terapêutica exige estudo, manejo clínico e sensibilidade para interpretar a subjetividade — algo que, por enquanto, está fora do alcance da IA.”

A ausência do olhar humano

A ausência de silêncios, subjetividades e afetos pode comprometer o processo de escuta profunda que caracteriza práticas como a psicanálise.

“O que não é dito, assim como as ressonâncias do que é dito, são tão importantes quanto a fala em si. A troca entre o par analítico, durante a sessão, é um elemento-chave para um processo profundo, delicado baseado na confiança, no respeito e na escuta do que é singular”, afirma Gonçalves.

Nada disso impede, no entanto, o uso da IA em etapas específicas dos processos terapêuticos, como triagens iniciais ou apoio emocional emergencial.

“Em situações como testes de personalidade — usados com frequência por profissionais de RH — esse tipo de prática já ocorre há algum tempo”, observa.

Nesse contexto, a IA pode ampliar o acesso a avaliações que antes estavam restritas ao ambiente corporativo, contribuindo para a compatibilidade entre perfis profissionais e demandas das vagas. Mas, no campo clínico, o psicanalista adota uma postura mais cautelosa: “No consultório, ainda considero bastante complexo apontar benefícios consistentes do uso da IA”, diz.

O “ambiente seguro” e o papel da privacidade

Para Leonardo Gonçalves, é preciso ter em mente que a inteligência artificial é uma ferramenta de assistência, voltada principalmente para a automação de tarefas. Em sua aplicação inicial, o objetivo é otimizar processos e aumentar a eficiência de quem a utiliza. “No entanto, quando adaptamos o uso dessa ferramenta para o âmbito pessoal — por exemplo, como uma forma de “terapia” — passamos a lidar com uma tecnologia que ainda não possui regulamentações claras sobre privacidade de dados”, aponta.

Princípios basilares das legislações sobre tratamento de dados — como necessidade, finalidade e consentimento informado — exigem que o uso das informações pessoais seja claro e previamente comunicado ao titular. No entanto, na prática, ainda é difícil saber com precisão para onde vão os dados compartilhados com chatbots terapêuticos ou com que propósito são utilizados.

“Provavelmente, a prática seguirá um padrão semelhante ao que já vivenciamos com os algoritmos das redes sociais. Nossas “fraquezas” emocionais sendo exploradas para gerar consumo”, alerta o psicanalista.

Para ele, a ausência de um ambiente emocionalmente seguro compromete a essência do processo terapêutico:

“Não deveria haver terapia sem um espaço protegido. Se alguém tem dificuldade para se expressar, isso diz respeito a algo que precisa ser trabalhado. A inteligência artificial, nesse contexto, pode acabar funcionando apenas como uma muleta — e, ao invés de aliviar, intensificar ainda mais os sintomas.”

E o futuro?

Em meio a tantas transformações, surge uma pergunta inevitável: a terapia mediada por inteligência artificial pode se consolidar como a principal forma de cuidado emocional?

O psicanalista Leonardo Gonçalves descarta essa possibilidade. “Acho difícil que a IA se torne o principal modelo de cuidado — e mais difícil ainda é prever suas consequências. Como psicanalista, vejo a subjetividade como matéria-prima do tratamento, por isso não acredito em verdades absolutas. Os afetos se movem em cada um à sua maneira.”

Ainda assim, ele reconhece que a IA pode oferecer algum alívio imediato, funcionando como um “analgésico emocional”. “Pode conter a dor por um tempo, mas não trata a causa. E isso tende a adiar o início de um tratamento adequado que realmente trabalhe na raiz do problema, o que pode resultar na repetição de crises, perpetuação do sofrimento e agravamento dos sintomas”, conclui.

Artigo Anterior

Governo do RS amplia uso de inteligência artificial na administração pública

Próximo Artigo

Brics quer protagonismo na regulação da inteligência artificial

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *