As diretrizes da Meta para o uso de seus chatbots de inteligência artificial permitiam comportamentos considerados inapropriados, como conversas de teor romântico com crianças, disseminação de informações falsas sobre saúde e até discursos racistas. É o que revela um documento interno da Meta divulgado pela agência Reuters.
A análise feita pela agência de notícias, que teve acesso ao material intitulado GenAI: Padrões de Risco de Conteúdo, usado para orientar o desenvolvimento de ferramentas como o Meta AI, presente no Facebook, Instagram e WhatsApp. O documento, com mais de 200 páginas, foi aprovado por diversas áreas da empresa, incluindo o setor jurídico, engenharia e ética.
Segundo o conteúdo, era permitido que os chatbots descrevessem crianças com frases sugestivas, como “sua forma jovem é uma obra de arte” ou que dissesse a uma criança de 8 anos que “cada centímetro de você é uma obra-prima”. Embora houvesse limite para linguagem claramente sexual, o material permitia mensagens que sugerem atratividade infantil.
A Meta confirmou a autenticidade do documento e afirmou ter removido os trechos problemáticos. O porta-voz Andy Stone reconheceu que os exemplos eram inadequados e contrários às políticas da empresa. Ele também admitiu falhas na fiscalização e disse que as regras estão sendo revistas.
Outras partes polêmicas do documento continuam válidas, segundo a Meta, que se recusou a divulgar uma nova versão atualizada. A empresa reforçou que suas políticas não permitem conteúdo que sexualize menores ou promova interações inadequadas entre bots e crianças.
Além disso, as diretrizes também autorizavam, em alguns casos, que os chatbots gerassem conteúdos discriminatórios. Um dos exemplos citados permitia que a IA argumentasse que “negros são mais burros que brancos”, contrariando as normas contra discurso de ódio estabelecidas publicamente pela própria empresa.
Crédito da imagem: Reprodução