IA na terapia: especialistas alertam para cuidados em usar chatbots como apoio psicológico

Em uma sociedade marcada por pressa, ansiedade e solidão, esses aplicativos se apresentam como ‘terapeutas de bolso’
Terapia Crédito: Pexels

A inteligência artificial tem sido usada para terapias virtuais e a cada dia, mais pessoas recorrem a assistentes virtuais para falar sobre o que sentem. Chatbots prometem escuta, acolhimento e até aconselhamento terapêutico. Estão sempre disponíveis, respondem com frases simpáticas e se dizem preparados para lidar com a dor humana. No entanto, especialistas alertam para o uso dessas ferramentas.

“O uso de chatbots em saúde mental tem se expandido com promessas sedutoras: escuta 24h, custo acessível, privacidade e ausência de julgamento. Em uma sociedade marcada por pressa, ansiedade e solidão, esses aplicativos se apresentam como ‘terapeutas de bolso’ — e isso, por si só, já exige uma análise crítica”, comenta Danilo Suassuna, psicólogo e diretor da Clínica Suassuna.

Ele lembra que um estudo realizado pela Universidade de Stanford, conforme publicado pelo Intelligence Garden, avaliou cinco dos principais apps do mercado que se apresentam como terapeutas virtuais. “O resultado foi alarmante”, considera o especialista.

Um deles foi que em situações simuladas de crise suicida, alguns bots listaram locais turísticos com pontes altas, ao invés de oferecer suporte emergencial.

Já em casos envolvendo alcoolismo e esquizofrenia, os bots exibiram respostas mais frias e estigmatizantes do que em quadros de depressão.

Risco oculto

Mesmo os modelos de IA mais avançados — como os que utilizam grandes modelos de linguagem (LLMs) — não foram capazes de detectar risco, demonstrando ausência de empatia e de julgamento clínico.

“Para entender por que a IA falha como substituto terapêutico, é necessário compreender o que constitui o encontro clínico. A psicoterapia não é feita de respostas certas, mas de presença afetiva. Não é uma troca de dados, mas um campo de experiência partilhada. O psicólogo está ali, em corpo e afeto, escutando o que o outro diz — e também o que ainda não consegue dizer. Como dizia Carl Rogers, o terapeuta é aquele que aceita o outro em profundidade, com genuíno interesse por sua experiência subjetiva. Essa aceitação só pode ocorrer em uma relação dialógica, marcada por autenticidade e empatia — condições que uma IA não pode oferecer”, diz.

Ele ressalta que a IA responde, mas não ressona. Ela interpreta padrões, mas não compreende singularidades. Ela replica empatia linguística, mas não vive o impacto da escuta. Ela simula afeto, mas não sente. E na ausência do sentir, não há transformação — só adaptação a algoritmos.

“As evidências sobre o uso terapêutico de chatbots ainda são frágeis. Uma revisão sistemática publicada no Journal of Medical Internet Research mostrou que os benefícios para quadros leves de ansiedade e depressão são, na melhor das hipóteses, modestos — e que a maioria dos estudos tem amostras pequenas, envolve poucos encontros (em geral, menos de 4 semanas), é financiada por empresas que desenvolvem os próprios apps, não possui controle de qualidade para casos graves ou risco suicida”, afirma.

Só como apoio

Suassuna comenta que a OMS (Organização Mundial de Saúde), em suas diretrizes de 2024 sobre IA em saúde, alerta que chatbots devem ser usados apenas como apoio e nunca como substitutos do cuidado humano, sobretudo em situações de vulnerabilidade. Já a APA (American Psychological Association) realizou audiências com reguladores para discutir os potenciais riscos públicos associados ao uso não regulado de IA como ‘terapeuta’.

“A conclusão é clara: sem validação científica rigorosa e salvaguardas éticas, o uso de IA em saúde mental pode causar mais mal do que bem”, diz Suassuna. “Isso não significa que a IA não tem lugar algum na saúde mental. Muito pelo contrário: ela pode ser uma ferramenta valiosa — desde que usada de forma ética, segura e supervisionada”, considera Suassuna.

“A inteligência artificial opera com base em algoritmos e oferece aquilo que considera ser do interesse do usuário, de acordo com dados sistematizados. Falar em substituição [do atendimento humano] é complexo, já que a IA não realiza uma análise individual das vivências e contextos que compõem cada sujeito. Nesse sentido, ela se assemelha mais a um livro de autoajuda: pode ajudar momentaneamente, mas não atua na raiz dos problemas”, disse Leonardo Gonçalves, psicanalista clínico formado pela Sociedade Paulista de Psicanálise e pós-graduado em Psicanálise e Análise do Contemporâneo pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), em entrevista ao Intelligence Garden.

Fredy Figner, da Fredy Explica Psicologia Empresarial, comenta que a IA pode vir com frase de efeito prontas, sugestões de atividades, mas o principal elemento da psicoterapia é a fala e a escuta do terapeuta. “Não é à toa que uma das formas de aliviar a tensão é através da fala. Vivemos em um sociedade que deseja respostas rápidas, urgentes e como pudéssemos controlar a vida. E isso é uma fantasia!”, diz Figner.

“Quando atendo, tendo sentir o que meu paciente sente, me preocupo genuinamente com seu cuidado e ele precisa entender o tempo da psicoterapia e da sua sessão como um limite claro. E não um ‘terapeuta’ on line que pode estar disponível a qualquer momento. Isso pode gerar aumento da ansiedade ou vício. E até mesmo piorar os sintomas do paciente”, complementa Figner.

Para ele, fazer psicoterapia é uma escolha de investir afeto, tempo, desejo e dinheiro em si mesmo e nas suas questões. “Não se muda de vida ou se constrói uma vida significativa com feedbacks ou conselhos de uma IA. Entendo da importância da tecnologia como uma ferramenta que apoie a psicologia, mas não como substituta do processo terapêutico”, diz Figner.

“Mais do que a aplicação de teorias e técnicas, a conexão genuína com o outro, baseada na reciprocidade e na compreensão da experiência humana, é o que realmente importa”, finaliza Figner.

Crédito da imagem: Pexels

Artigo Anterior

Câmeras com IA ajudam a prender 10 criminosos em apenas um dia no ES

Próximo Artigo

Volvo cria cinto de segurança com inteligência artificial

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *