A OpenAI anunciou uma atualização nas regras de segurança do ChatGPT voltadas especificamente para adolescentes. As novas diretrizes definem como os modelos de inteligência artificial devem se comportar com usuários menores de 18 anos e vêm acompanhadas do lançamento de recursos de letramento em IA para pais e responsáveis.
A medida ocorre em um momento de forte escrutínio sobre o impacto de chatbots em jovens, após casos que levantaram alertas entre educadores, especialistas em segurança digital e autoridades públicas. Segundo a TechCrunch, a iniciativa também dialoga com o avanço de propostas legislativas nos Estados Unidos que buscam impor padrões mais rígidos para o uso de IA por menores.
Entre as mudanças, a OpenAI estabeleceu regras mais restritivas para interações com adolescentes. O ChatGPT passa a evitar simulações de relacionamentos românticos imersivos, intimidade em primeira pessoa e qualquer forma de encenação sexual ou violenta, mesmo quando o conteúdo é descrito como fictício ou educacional. O modelo também deve agir com cautela redobrada em temas sensíveis, como imagem corporal, distúrbios alimentares e saúde mental.
Outro ponto central é a priorização da segurança em situações de risco. As diretrizes orientam o chatbot a incentivar a busca por apoio no mundo real, como familiares, amigos ou profissionais, e a deixar claro que não é um ser humano. A empresa também prepara um sistema de previsão de idade, que identificará contas pertencentes a menores e aplicará automaticamente salvaguardas específicas.
Além disso, a OpenAI afirmou que passou a usar classificadores automatizados em tempo real para detectar conteúdos sensíveis relacionados a abuso infantil, automutilação e outros riscos. Em casos considerados graves, as interações podem ser analisadas por equipes treinadas e, em determinadas situações, responsáveis legais podem ser notificados.
Créditos da imagem: Unsplash