Reguladores ficam para trás no desafio de fiscalizar apps de terapia com IA

Leis estaduais nos EUA tentam conter riscos de chatbots terapêuticos, mas cenário fragmentado e desenvolvimento acelerado dificultam ação eficaz
Terapia Crédito: Pexels

Nos Estados Unidos, à medida que aplicativos de terapia baseados em inteligência artificial ganham popularidade, regulamentadores lutam para acompanhar a rapidez das inovações. As informações foram divulgadas pelo WCAX , que cita a Associated Press.

Sem uma regulamentação federal robusta, diversos estados criaram leis próprias em 2025 para controlar ou proibir o uso desses apps. Illinois e Nevada baniram o uso de IA para tratamento mental, enquanto Utah impôs restrições e exigiu transparência sobre o fato de que chatbots não são humanos.

Entretanto, especialistas afirmam que este “patchwork” de leis estaduais é insuficiente: muitas normas não abordam chatbots genéricos (como o ChatGPT) usados para aconselhamento informal, e algumas apps permanecem disponíveis mesmo em estados com proibições.

Para conter os riscos, agências federais como a FTC já iniciaram investigações sobre empresas de chatbot, enquanto a FDA planeja uma comissão para avaliar dispositivos de IA aplicados à saúde mental.

Reguladores, desenvolvedores e especialistas apontam que é urgente estabelecer diretrizes claras, mecanismos de responsabilização e supervisão humana, para evitar danos quando usuários dependem desses sistemas sem suporte profissional.

Crédito da imagem: Pexels

Artigo Anterior

Empresas brasileiras veem IA como prioridade em 2026, mas ainda falta investimento

Próximo Artigo

OpenAI lança recurso 'Pulse' e aposta em personalização matinal

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *