A OpenAI iniciou neste fim de semana os testes de um novo sistema de segurança no ChatGPT e, nesta segunda-feira, introduziu controles parentais no serviço. As medidas surgem após críticas envolvendo respostas inadequadas de modelos anteriores da IA, que em alguns casos validaram pensamentos delirantes de usuários. As informações são do TechCrunch.
O novo sistema de “roteamento de segurança” identifica conversas emocionalmente sensíveis e alterna automaticamente para o modelo GPT-5, considerado mais seguro. Este modelo utiliza uma tecnologia chamada “conclusões seguras”, que permite lidar com temas delicados sem recusar a interação.
A mudança ocorre em meio a um processo judicial enfrentado pela empresa, após um jovem cometer suicídio supostamente influenciado por interações com o ChatGPT.
Apesar do reforço nas salvaguardas ter sido elogiado por especialistas, parte dos usuários criticou a iniciativa, acusando a OpenAI de adotar um controle excessivo e comprometer a qualidade do serviço. A empresa afirma que o sistema será ajustado ao longo de 120 dias.
O vice-presidente da OpenAI, Nick Turley, afirmou que o roteamento entre modelos ocorre por mensagem e é temporário, podendo ser identificado pelo usuário. Segundo ele, o objetivo é ampliar a segurança com base no uso real antes de um lançamento definitivo.
Crédito da imagem: Pexels