O Brasil é o país com maior prevalência de depressão na América Latina — e as projeções indicam que esse número deve crescer nos próximos anos. A conclusão faz parte do relatório Depression and Other Common Mental Disorders: Global Health Estimates, publicado pela Organização Mundial da Saúde (OMS).
Segundo o mesmo levantamento, o Brasil também lidera o ranking global de casos de transtorno de ansiedade e mantém altos índices de burnout: cerca de 30% dos trabalhadores brasileiros sofrem com a síndrome do esgotamento profissional.
A pandemia de Covid-19 teve impacto direto nesse cenário. De acordo com a OMS, o primeiro ano da crise sanitária provocou um aumento de 25% nos casos de depressão e ansiedade em escala global.
Com as restrições impostas durante o período — e o aumento significativo do estresse decorrente do isolamento social — o que antes era visto como uma alternativa eventual tornou-se parte da nova realidade: a terapia online.
“A partir daí, surgiu a necessidade — e a evidência — de que é possível realizar sessões de terapia de forma online, transformando o que era apenas uma possibilidade em uma nova realidade e modo de atendimento”, explica Leonardo Gonçalves, psicanalista clínico formado pela Sociedade Paulista de Psicanálise e pós-graduado em Psicanálise e Análise do Contemporâneo pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).
Se, num primeiro momento, a terapia online manteve a estrutura tradicional da relação entre profissional e paciente, hoje ela se reinventa com o uso crescente de ferramentas de inteligência artificial, como os chatbots terapêuticos, que ampliam o alcance e a disponibilidade do cuidado psicológico. Seguindo essa tendência, o “divã” nunca esteve tão acessível — muitas vezes disponível 24 horas por dia, pronto para oferecer suporte emocional em qualquer hora e lugar.
Nos últimos anos, observou-se um crescimento expressivo no uso dessas ferramentas de IA voltadas à saúde mental. Chatbots terapêuticos baseados em IA são programas que simulam conversas com os usuários para oferecer apoio emocional, escuta ativa e até orientações terapêuticas básicas. Utilizando processamento de linguagem natural, conseguem interpretar e responder de forma empática, muitas vezes personalizada.
Os números são reveladores: 1 em cada 10 brasileiros já utilizou chatbots como o ChatGPT, Youper ou Wysa para desabafar ou buscar conselhos emocionais, segundo pesquisa da Talk Inc realizada em 2024. Entre os principais motivos citados estão a solidão, introspecção e a dificuldade de acesso a profissionais da saúde mental.
No entanto, apesar do potencial dessas ferramentas para oferecer alívio imediato, especialistas alertam para os riscos de substituir o atendimento humano por sistemas automatizados.
“A inteligência artificial opera com base em algoritmos e oferece aquilo que considera ser do interesse do usuário, de acordo com dados sistematizados. Falar em substituição [do atendimento humano] é complexo, já que a IA não realiza uma análise individual das vivências e contextos que compõem cada sujeito. Nesse sentido, ela se assemelha mais a um livro de autoajuda: pode ajudar momentaneamente, mas não atua na raiz dos problemas”, argumenta Leonardo Gonçalves.
Para ele, há risco real de a IA, ao sugerir como a pessoa deve agir, acabar reforçando frustrações, sentimentos de inadequação ou até provocar gatilhos psíquicos, agravando sintomas.
“Talvez possamos pensar na IA como um recurso emergencial ou voltado a questões mais pontuais. Mas ela deveria ser programada para acolher e, quando necessário, direcionar a pessoa a um profissional especializado. Aprofundar uma troca terapêutica exige estudo, manejo clínico e sensibilidade para interpretar a subjetividade — algo que, por enquanto, está fora do alcance da IA.”
A ausência do olhar humano
A ausência de silêncios, subjetividades e afetos pode comprometer o processo de escuta profunda que caracteriza práticas como a psicanálise.
“O que não é dito, assim como as ressonâncias do que é dito, são tão importantes quanto a fala em si. A troca entre o par analítico, durante a sessão, é um elemento-chave para um processo profundo, delicado baseado na confiança, no respeito e na escuta do que é singular”, afirma Gonçalves.
Nada disso impede, no entanto, o uso da IA em etapas específicas dos processos terapêuticos, como triagens iniciais ou apoio emocional emergencial.
“Em situações como testes de personalidade — usados com frequência por profissionais de RH — esse tipo de prática já ocorre há algum tempo”, observa.
Nesse contexto, a IA pode ampliar o acesso a avaliações que antes estavam restritas ao ambiente corporativo, contribuindo para a compatibilidade entre perfis profissionais e demandas das vagas. Mas, no campo clínico, o psicanalista adota uma postura mais cautelosa: “No consultório, ainda considero bastante complexo apontar benefícios consistentes do uso da IA”, diz.
O “ambiente seguro” e o papel da privacidade
Para Leonardo Gonçalves, é preciso ter em mente que a inteligência artificial é uma ferramenta de assistência, voltada principalmente para a automação de tarefas. Em sua aplicação inicial, o objetivo é otimizar processos e aumentar a eficiência de quem a utiliza. “No entanto, quando adaptamos o uso dessa ferramenta para o âmbito pessoal — por exemplo, como uma forma de “terapia” — passamos a lidar com uma tecnologia que ainda não possui regulamentações claras sobre privacidade de dados”, aponta.
Princípios basilares das legislações sobre tratamento de dados — como necessidade, finalidade e consentimento informado — exigem que o uso das informações pessoais seja claro e previamente comunicado ao titular. No entanto, na prática, ainda é difícil saber com precisão para onde vão os dados compartilhados com chatbots terapêuticos ou com que propósito são utilizados.
“Provavelmente, a prática seguirá um padrão semelhante ao que já vivenciamos com os algoritmos das redes sociais. Nossas “fraquezas” emocionais sendo exploradas para gerar consumo”, alerta o psicanalista.
Para ele, a ausência de um ambiente emocionalmente seguro compromete a essência do processo terapêutico:
“Não deveria haver terapia sem um espaço protegido. Se alguém tem dificuldade para se expressar, isso diz respeito a algo que precisa ser trabalhado. A inteligência artificial, nesse contexto, pode acabar funcionando apenas como uma muleta — e, ao invés de aliviar, intensificar ainda mais os sintomas.”
E o futuro?
Em meio a tantas transformações, surge uma pergunta inevitável: a terapia mediada por inteligência artificial pode se consolidar como a principal forma de cuidado emocional?
O psicanalista Leonardo Gonçalves descarta essa possibilidade. “Acho difícil que a IA se torne o principal modelo de cuidado — e mais difícil ainda é prever suas consequências. Como psicanalista, vejo a subjetividade como matéria-prima do tratamento, por isso não acredito em verdades absolutas. Os afetos se movem em cada um à sua maneira.”
Ainda assim, ele reconhece que a IA pode oferecer algum alívio imediato, funcionando como um “analgésico emocional”. “Pode conter a dor por um tempo, mas não trata a causa. E isso tende a adiar o início de um tratamento adequado que realmente trabalhe na raiz do problema, o que pode resultar na repetição de crises, perpetuação do sofrimento e agravamento dos sintomas”, conclui.