A Anthropic abriu o acesso público ao Claude Security, sua ferramenta de cibersegurança baseada em inteligência artificial. Após meses de testes restritos com centenas de organizações parceiras, o recurso entra em fase beta para todos os clientes que fazem parte do pacote Claude Enterprise — com os usuários dos planos Team e Max na fila para as próximas liberações.
Três meses de prévia silenciosa
O Claude Security não surgiu do nada. Desde fevereiro de 2026, a ferramenta funcionava em modo de “prévia de pesquisa” junto a um grupo seleto de empresas parceiras, o suficiente para a Anthropic ajustar o comportamento do sistema antes de abrí-lo ao mercado corporativo mais amplo. Agora, com o beta público, qualquer empresa com acesso Enterprise pode começar a usar a ferramenta.
O que o Claude Security faz — e como faz
A proposta é direta: o sistema revisa repositórios inteiros de código de uma empresa em busca de vulnerabilidades de segurança, e o faz com muito menos fricção do que os concorrentes do mercado. Não há integrações de API para configurar nem agentes de IA para montar — o usuário acessa o recurso dentro do próprio ambiente do Claude, na aba lateral junto ao Code e ao histórico de conversas, e aponta quais repositórios do GitHub deseja que sejam analisados.
O modelo que processa essa análise é o Opus 4.7, a versão mais recente e poderosa da família Claude, lançado há poucos dias e já incorporado à ferramenta de segurança.
A partir daí, o sistema trabalha de forma relativamente autônoma: varre o código, identifica trechos suspeitos e organiza os resultados em uma lista de pendências. Cada item vem acompanhado do trecho exato do código que levantou suspeita e de uma explicação sobre por que ele representa um risco potencial. Antes de entregar o relatório final, o Claude Security ainda valida cada descoberta individualmente, uma etapa que funciona como uma “prova real” para reduzir os chamados falsos positivos, um problema crônico em ferramentas automatizadas de segurança.
Atualizações recentes também adicionaram funcionalidades que ampliam o controle do usuário sobre o processo: é possível agendar varreduras automáticas, direcionar a análise para diretórios específicos dentro de um repositório e exportar os resultados em formato CSV para integração com outros sistemas de gestão.
A decisão final sempre é humana
Apesar do nível de automação, a Anthropic foi explícita sobre os limites intencionais da ferramenta. Ao final de cada análise, cabe ao usuário decidir o que fazer com cada resultado: ignorar a sugestão, solicitar que o próprio Claude Security proponha uma correção no código — ou fazer ambos. E mesmo quando o sistema sugere uma correção, a recomendação é que ela seja revisada por um desenvolvedor humano antes de ser implementada.
Essa postura reflete uma das diretrizes centrais da Anthropic: ferramentas de IA devem ampliar a capacidade humana, não substituir o julgamento profissional, especialmente em áreas críticas como segurança de sistemas.
Não confundir com o Mythos
A entrada do Claude Security no beta público acontece num momento em que outra ferramenta da Anthropic voltada a cibersegurança vem chamando atenção e gerando controvérsia. O Mythos é um modelo de linguagem separado, desenvolvido para identificar vulnerabilidades em navegadores e sistemas operacionais inteiros, e que chegou a ser descrito por pesquisadores como potencialmente perigoso justamente pela profundidade de sua capacidade de encontrar brechas.
O Claude Security tem escopo e proposta diferentes: enquanto o Mythos opera como um modelo especializado voltado a pesquisadores e agências de segurança, o Security é uma ferramenta de uso corporativo cotidiano, projetada para equipes de desenvolvimento que querem identificar e corrigir vulnerabilidades no próprio código antes que alguém de fora o faça.
Com o lançamento, a Anthropic consolida sua aposta em transformar o Claude em uma plataforma de produtividade corporativa que vai muito além do chatbot — desta vez, com um olho diretamente sobre a integridade dos sistemas que as empresas constroem.