Estudo conduzido por pesquisadores da Microsoft acendeu um alerta ao mostrar que ferramentas de inteligência artificial generativa podem ser usadas para contornar sistemas de segurança e propor o design de toxinas ou patógenos perigosos. As informações foram divulgadas pelo Olha Digital.
Citando uma pesquisa publicada na revista Science, a reportagem mostra que os algoritmos de IA são capazes de sugerir novas formas de proteínas — estruturas que, dependendo da aplicação, podem resultar em compostos tanto benéficos quanto prejudiciais à saúde humana.
Atualmente, sistemas de triagem de biossegurança são utilizados por fornecedores comerciais para evitar que sequências genéticas associadas a agentes patogênicos sejam manipuladas de forma indevida. Esse tipo de software compara os pedidos de sequências de DNA com bancos de dados de toxinas conhecidas. No entanto, o estudo mostrou que a IA pode “redesenhar” essas toxinas de maneira sutil, alterando sua estrutura a ponto de driblar os filtros de segurança.
Os testes realizados pela Microsoft foram inteiramente digitais. Nenhuma substância perigosa chegou a ser sintetizada. Antes da publicação dos resultados, a equipe notificou o governo dos Estados Unidos e os principais fabricantes de softwares de triagem, que já corrigiram as vulnerabilidades identificadas.
Mesmo com a correção imediata, o episódio levanta preocupações globais sobre os riscos da IA na criação de armas biológicas. Especialistas reforçam a necessidade de regulamentações mais rígidas e sistemas de governança capazes de acompanhar a velocidade com que essas tecnologias evoluem.
Crédito da imagem: Pexels