Google recua e remove resumos de saúde gerados por IA após alertas de erros médicos

Investigação apontou informações potencialmente perigosas nos resultados de busca, reacendendo o debate sobre o uso de IA em orientações de saúde.

O Google começou a remover alguns resumos de saúde gerados por inteligência artificial após a identificação de erros médicos considerados graves em seus resultados de busca. As falhas estavam ligadas ao recurso AI Overviews, que exibe respostas automáticas no topo da página, e vieram à tona depois de uma investigação jornalística apontar riscos à segurança dos usuários.

Com mais de 90% de participação no mercado global de buscas, qualquer imprecisão desse tipo ganha escala rapidamente. Após a repercussão, consultas como “faixa normal de exames de sangue do fígado” deixaram de exibir os resumos automáticos, conforme observado dias depois da publicação da reportagem.

A polêmica teve como foco exames hepáticos. Segundo especialistas, o sistema apresentava listas de valores de referência sem considerar fatores essenciais como idade, sexo e histórico clínico. Isso poderia levar pessoas com doenças graves a acreditarem, de forma equivocada, que seus exames estavam normais. Vanessa Hebditch, diretora da British Liver Trust, alertou que testes de função hepática envolvem múltiplos marcadores e exigem interpretação médica cuidadosa.

A investigação também identificou outros erros preocupantes, como recomendações inadequadas para pacientes com câncer de pâncreas e informações incorretas sobre exames de rastreamento de câncer em mulheres. Para especialistas, respostas automáticas fora de contexto podem causar mais confusão do que orientação em temas sensíveis como saúde.

Apesar da remoção de algumas consultas específicas, o debate está longe de encerrado. Variações simples das mesmas perguntas ainda conseguem ativar os resumos de IA. Em nota, o Google afirmou que está revisando esses casos e ajustando o sistema quando há perda de contexto, ressaltando que não comenta remoções individuais. O episódio reforça as discussões sobre os limites e responsabilidades do uso de inteligência artificial em informações médicas, especialmente em momentos de vulnerabilidade dos usuários.

Créditos da imagem: Unsplash

Artigo Anterior

Idec pede suspensão da IA Grok, de Elon Musk, no Brasil

Próximo Artigo

Cade investiga Meta por restringir uso de ChatGPT e Copilot no WhatsApp

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *