OpenAI lança GPT-5.4 Cyber para disputar o mercado de cibersegurança com IA e enfrentar o Claude Mythos da Anthropic

Modelo chega uma semana após o rival Mythos Preview e promete acesso mais amplo — mas levanta debate sobre os riscos de liberar uma IA poderosa para detectar e explorar vulnerabilidades a milhares de usuários

A OpenAI anunciou o GPT-5.4-Cyber, uma versão do modelo GPT-5.4 ajustada especificamente para detectar falhas em softwares. A promessa é que ele terá menos barreiras do que as versões convencionais para tarefas de alto nível. O lançamento ocorre exatamente uma semana após a Anthropic apresentar o Claude Mythos Preview, um modelo de identificação de falhas com acesso limitado a empresas selecionadas.

A diferença de estratégia entre as duas empresas é marcante. Assim como fez o rival, o GPT-5.4-Cyber está sendo disponibilizado para um grupo seleto de participantes do programa Trusted Access for Cyber, iniciativa da OpenAI criada em fevereiro para dar acesso controlado às suas ferramentas mais avançadas a clientes e profissionais de segurança verificados. O acesso, entretanto, não é tão restrito quanto ao do modelo da Anthropic: a expectativa é que milhares de inscritos possam utilizar o GPT-5.4-Cyber em poucas semanas.

Em termos de capacidades, o novo modelo vai além do que as ferramentas convencionais oferecem. Entre as capacidades inéditas está a engenharia reversa de binários — a habilidade de examinar código já compilado em busca de malwares, brechas de segurança e pontos frágeis sem precisar ter acesso ao código-fonte original. Na prática, isso significa que equipes de defesa podem investigar softwares fechados com muito mais profundidade do que antes.

Testes internos feitos pela empresa afirmam que o novo modelo tem capacidade “alta” em identificar falhas de segurança cibernética. O Codex Security, que já “contribuiu para a correção de mais de 3 mil vulnerabilidades”, foi aprimorado para a IA. A empresa também informou ter calibrado os limites para reduzir o atrito em tarefas legítimas de defesa.

A OpenAI reconheceu abertamente que o modelo opera com menos restrições do que o habitual. Em nota oficial, a empresa afirmou ter desenvolvido “sistemas que podem validar usuários confiáveis e utilizar casos de maneiras mais objetivas e automatizadas”. “Não consideramos prático ou apropriado decidir centralmente quem tem o direito de se defender”, comentou a empresa em declaração que parece direcionada para a decisão da Anthropic de liberar o Mythos Preview exclusivamente para 40 companhias previamente selecionadas. Ainda assim, será necessário passar por uma verificação de identidade para ter acesso ao modelo.

A abertura maior do GPT-5.4-Cyber não passou sem críticas do setor. Para Craig Mundle, ex-diretor de pesquisa e estratégia da Microsoft, o controle de uso do Mythos Preview é de extrema importância para evitar malfeitores. “O que antes era domínio de grandes países, grandes forças armadas, grandes empresas e grandes organizações criminosas com grandes orçamentos — essa capacidade de desenvolver operações sofisticadas — pode se tornar facilmente acessível a pequenos atores”, alertou o executivo.

Do lado das instituições que apostam na abordagem mais cautelosa da Anthropic, o Goldman Sachs é uma das que se propôs a contribuir diretamente com a empresa para minimizar os riscos da implementação do Mythos Preview. Em conferência de resultados, o CEO David Solomon comunicou que ambas as partes estão focadas em “complementar nossa resiliência cibernética e de infraestrutura”.

O lançamento do GPT-5.4-Cyber inaugura um novo front na disputa entre as duas maiores empresas de IA do mundo: não apenas pelo mercado corporativo geral, mas pelo controle da narrativa e dos padrões de segurança em uma área que pode redefinir o equilíbrio de forças na proteção digital global.

Artigo Anterior

Demanda por IA supera oferta de infraestrutura e pressiona todo o setor de tecnologia

Próximo Artigo

Data center da OpenAI passa para o controle da Microsoft

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *