O Google formalizou nesta terça-feira (28) um acordo sigiloso com o Departamento de Defesa dos Estados Unidos (DoD) que autoriza o uso de seus modelos de inteligência artificial em projetos confidenciais do governo americano. A informação foi apurada pelo site The Information e confirmada pela Reuters, com base em fontes familiarizadas com o assunto e chega em meio a uma divisão interna expressiva dentro da própria empresa.
O que o acordo permite e o que proíbe
Nos termos do contrato, o governo dos EUA pode utilizar a tecnologia do Google para “qualquer finalidade governamental legítima”. Trata-se de uma abertura ampla, que cobre desde análise de dados e logística até aplicações em ambientes classificados do Departamento de Defesa.
Há, no entanto, limites explícitos. O acordo proíbe o uso da IA para sistemas de monitoramento em massa da população e para armas autônomas — incluindo, especificamente, a seleção de alvos sem supervisão e controle humano. Outro ponto relevante: o contrato não garante ao Google o direito de controlar ou vetar decisões operacionais do governo americano. Uma vez fornecida a tecnologia, as escolhas sobre como empregá-la ficam inteiramente nas mãos do DoD, dentro dos limites acordados.
Um porta-voz do Google afirmou que a empresa colabora com agências governamentais em projetos sigilosos e públicos, mantendo o compromisso de que a IA não deve ser usada para vigilância em massa nem para armamento autônomo sem intervenção humana. “Acreditamos que fornecer acesso à API para nossos modelos comerciais, com práticas e termos padrão do setor, representa uma abordagem responsável para apoiar a segurança nacional”, declarou o porta-voz. O Departamento de Defesa não quis comentar.
A revolta de dentro
O acordo não passou despercebido pelos próprios funcionários do Google. Cerca de 600 colaboradores assinaram uma carta pedindo revisões nos termos do contrato, segundo apuração do The Information. O documento interno argumenta que a IA não deve contribuir para ações que possam ser consideradas “desumanas ou extremamente prejudiciais” e que a colaboração não deve permitir o uso da tecnologia em cargas de trabalho confidenciais — evitando, assim, que o nome da empresa seja associado a incidentes violentos.
O trecho mais direto da carta resume a preocupação central dos signatários: “Caso contrário, tais usos podem ocorrer sem nosso conhecimento ou poder para impedi-los.” A frase aponta para um dilema cada vez mais presente nas grandes empresas de tecnologia que fecham contratos com governos: até onde vai a responsabilidade de quem fornece a ferramenta pelo uso que dela se faz?
A corrida das big techs pelo Pentágono
O acordo do Google não é um caso isolado. Nos últimos meses, o Departamento de Defesa vem firmando contratos com os principais nomes do setor de IA. A OpenAI e a xAI, empresa de Elon Musk criadora do Grok, já estabeleceram colaborações formais com o governo americano.
A Anthropic, criadora do Claude, foi cotada como parceira, mas recusou conceder acesso privilegiado aos seus modelos sem garantias sobre o uso em armas autônomas e vigilância em massa, posição que resultou em consequências severas: a empresa foi classificada como risco à cadeia de suprimentos pelo Pentágono, teve o uso de sua tecnologia suspenso em agências federais e chegou a processar o governo americano após ser rotulada como ameaça à segurança nacional.
O contraste entre os dois caminhos é revelador. De um lado, Google, OpenAI e xAI optaram por negociar termos e firmar acordos com o governo, mesmo diante de resistência interna. Do outro, a Anthropic fez das restrições éticas uma linha que se recusou a cruzar — e pagou um preço alto por isso.
O dilema que não vai embora
O acordo do Google com o Pentágono reacende um debate que o setor de tecnologia tenta equacionar há anos: como fornecer capacidade computacional e inteligência artificial de ponta a governos e forças armadas sem abrir mão do controle sobre o uso que será feito dessas ferramentas?
A resposta que o Google parece ter encontrado — proibições contratuais claras, mas sem direito de veto operacional — pode satisfazer a empresa juridicamente, mas dificilmente silenciará os 600 funcionários que já sinalizaram discordância. Para eles, a questão não é o que o contrato proíbe, mas o que ele permite e o que pode acontecer nos espaços que ele não alcança.