Justiça dos EUA barra veto de Trump à Anthropic e suspende classificação de “risco à segurança nacional”

Juíza federal em São Francisco concedeu liminar à criadora do Claude, revertendo medidas que impediam agências federais de usar seus modelos de IA e que classificavam a empresa como ameaça — decisão aponta retaliação ilegal por parte do governo.

O confronto entre o governo Trump e a Anthropic, empresa responsável pelo modelo de inteligência artificial Claude, chegou ao Judiciário — e, por ora, a startup saiu vencedora. Uma juíza federal em São Francisco concedeu liminar à empresa, suspendendo temporariamente as medidas que buscavam restringir o uso de sua tecnologia por órgãos do governo federal americano.

O estopim do conflito

A crise entre a Anthropic e a Casa Branca tem raízes em negociações fracassadas sobre o uso dos modelos da empresa em plataformas de inteligência artificial do Departamento de Defesa. O impasse era de natureza ética: enquanto o governo buscava acesso amplo à tecnologia para todos os usos permitidos em lei, a Anthropic exigia garantias de que seus sistemas não seriam empregados em armas totalmente autônomas ou em programas de vigilância doméstica em massa.

Sem acordo, a situação escalou rapidamente. O Pentágono declarou publicamente a Anthropic um risco para a cadeia de suprimentos — classificação historicamente reservada a empresas de países adversários, como China e Rússia. A medida teve consequências práticas imediatas: grandes contratadas de defesa, incluindo Amazon, Microsoft e Palantir, passaram a ser obrigadas a certificar que não utilizam os modelos da companhia em trabalhos militares.

Em paralelo, o presidente Donald Trump foi ainda mais longe e ordenou, em rede social, que agências federais deixassem de usar qualquer tecnologia da Anthropic, rotulando publicamente a empresa como uma “companhia de IA radical de esquerda.”

A resposta nos tribunais

Diante dos danos financeiros e reputacionais gerados pelas medidas, a Anthropic decidiu recorrer à Justiça. A empresa argumentou que as ações do governo configuravam retaliação pelo posicionamento crítico que havia adotado durante as negociações contratuais e a juíza Rita Lin concordou.

Em sua decisão, Lin foi direta ao classificar a situação: punir a Anthropic por trazer escrutínio público à posição contratual do governo seria um caso clássico de retaliação ilegal, protegida pela Primeira Emenda da Constituição americana, que garante a liberdade de expressão.

A magistrada também questionou a base legal usada pelo Pentágono, afirmando que nenhuma legislação autoriza que uma empresa americana seja rotulada como potencial adversária e sabotadora dos Estados Unidos simplesmente por discordar do governo.

O que a liminar muda e o que ainda está por vir

A decisão impede temporariamente a administração Trump de implementar, aplicar ou fazer cumprir a diretiva presidencial contra a Anthropic. Também limita a tentativa do Pentágono de manter a classificação da empresa como ameaça à segurança nacional.

No entanto, a liminar é uma medida provisória. Uma decisão definitiva sobre a legalidade das ações do governo ainda deve levar meses, e o desfecho do caso poderá ter impacto direto sobre como empresas de inteligência artificial se relacionam e discordam com o poder público nos Estados Unidos.

O caso coloca em evidência uma tensão crescente no setor: à medida que a IA se torna peça central nas estratégias de defesa e segurança nacional, os limites éticos impostos por suas criadoras passam a ser tratados, por alguns governos, como obstáculos ou até ameaças.

Fonte: InfoMoney

Artigo Anterior

Google lança Lyria 3 Pro: IA capaz de compor músicas completas com até 3 minutos de duração

Próximo Artigo

Microsoft Copilot agora combina GPT e Claude na mesma resposta para entregar resultados mais confiáveis

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *