Vista aérea do Pentágono, sede do Departamento de Defesa dos EUA
Política de IA

Funcionários de OpenAI e Google defendem Anthropic no processo do DoD

Mais de 30 profissionais de OpenAI e Google DeepMind assinam apoio jurídico à Anthropic em disputa com o Departamento de Defesa dos EUA, acendendo debate sobre limites éticos do uso militar de IA

Danilo Gato

Danilo Gato

Autor

16 de março de 2026
9 min de leitura

Introdução

Mais de 30 funcionários de OpenAI e Google DeepMind assinaram um amicus brief em apoio à Anthropic em seu processo contra o Departamento de Defesa dos EUA, reacendendo o debate sobre como a inteligência artificial deve ser usada em contextos militares. A palavra-chave Anthropic DoD aparece aqui porque resume o cerne da disputa: um embate legal com implicações técnicas, comerciais e éticas para o ecossistema de IA.

A ação da Anthropic contesta a designação de “risco à cadeia de suprimentos” feita pelo DoD, uma medida que corta o uso do Claude por contratadas de defesa e, segundo a empresa, viola direitos de liberdade de expressão e devido processo. A mobilização de pesquisadores e engenheiros de empresas rivais como OpenAI e Google adiciona peso político e técnico à discussão, sinalizando que a governança de IA não é apenas uma briga de corporações, é uma preocupação transversal de toda a comunidade.

Este artigo destrincha o que está em jogo, o que dizem as petições, como os mercados e o governo reagem, e quais lições práticas surgem para times de produto, jurídico e segurança que operam IA em contextos regulados.

O que exatamente está sendo disputado

A Anthropic entrou com duas ações federais questionando a designação do DoD que classifica a empresa como “risco à cadeia de suprimentos”, medida que, na prática, bloqueia sua tecnologia em contratos de defesa. A companhia argumenta que foi punida por manter salvaguardas contra vigilância em massa e uso bélico autônomo, e por defender publicamente limites ao emprego do seu modelo Claude, o que estaria protegido pela Primeira Emenda.

Segundo reportagens e um “explainer” jurídico, a origem do impasse remonta às negociações do GenAI.mil no fim de 2025, quando, de acordo com a Anthropic, o governo teria exigido o abandono total da política de uso, permitindo “todos os usos legais” do modelo. A empresa alega que buscou compromissos, inclusive criando o Claude Gov e flexibilizando restrições para cenários de segurança nacional, mas recusou abrir mão de limites para vigilância doméstica e armas totalmente autônomas.

A designação de risco, assinada no fim de fevereiro e comunicada formalmente à empresa em março, é descrita por veículos como uma ferramenta sem precedentes aplicada a uma companhia americana de IA, com efeitos que se estendem a contratadas e subcontratadas do Pentágono.

O movimento da comunidade técnica, e por que isso importa

O apoio de mais de 30 funcionários de OpenAI e Google DeepMind, incluindo o cientista-chefe Jeff Dean, chegou horas após o protocolo da ação judicial da Anthropic. O amicus brief sustenta que impor o uso “para todos os fins legais” sem salvaguardas minaria princípios de segurança e pesquisa responsável. Não é um detalhe simbólico, é sinal de alinhamento entre praticantes que, mesmo empregados por concorrentes, convergem no ponto de que guardrails técnicos e de política importam.

Esse gesto acontece enquanto o próprio governo amplia parcerias com outros fornecedores. Google, por exemplo, anunciou o Agent Designer no Gemini for Government, recurso para criação de agentes para tarefas não classificadas, enquanto cresce o número de usuários militares de suas ferramentas. O pano de fundo é de competição intensa entre grandes laboratórios, onde posicionamento ético pode influenciar tanto a adoção quanto a carreira de talentos.

![O Pentágono, sede do DoD]

O contra-ataque jurídico e a anatomia do risco

A Anthropic sustenta que a lei de risco de cadeia de suprimentos foi aplicada de forma indevida, porque deveria proteger programas sensíveis com a “menor restrição necessária”, não servir como instrumento punitivo por divergência de visão. A queixa também alega violação de devido processo e retaliação por discurso protegido. Esse argumento, se acolhido, pode estabelecer um precedente que limita o alcance de ordens administrativas quando colidem com políticas de segurança de IA declaradas por fornecedores.

Do outro lado, autoridades sinalizam que a exigência por flexibilidade operacional em aplicações militares é legítima diante de riscos de segurança nacional. Reportagens registram que a pasta teria advertido a Anthropic a “cruzar o Rubicão” em casos de uso militar e, segundo fontes, chegou a dar prazos duros durante as negociações. Mesmo sem comentários oficiais sobre litígios em curso, a mensagem que transparece é que o DoD quer alinhamento irrestrito às suas necessidades, especialmente em tempos de modernização acelerada.

Para equipes jurídicas em empresas de IA, o caso ilustra a importância de mapear onde políticas de uso, avaliações de risco e contratos públicos se chocam. Documentar as bases técnicas para salvaguardas, como restrições a geração de planos de ataque autônomo ou ajuda a vigilância predatória, pode ser crucial em disputas futuras sobre suposta “inviabilidade operacional” do produto.

Efeitos colaterais no mercado, nos contratos e na opinião pública

O impacto não é apenas legal. A substituição da Anthropic por outros fornecedores deflagrou ondas de reação do público e de usuários corporativos, com métricas como desinstalações de apps associadas a anúncios de contratos militares. Em paralelo, empresas parceiras e grandes fornecedores de nuvem acompanham o caso por potenciais efeitos em acordos de compliance e auditoria de modelos.

Ao mesmo tempo, vozes de peso do setor privado e de ex-chefes militares apareceram em petições, pedindo revisão ou moratória da designação. Microsoft, por exemplo, entrou com manifestação criticando a medida como vaga e sem precedente, pedindo suspensão temporária para permitir um debate mais razoado. Esse coro heterogêneo expõe um ponto vital: mesmo quem entrega tecnologia ao governo teme que regras mal desenhadas gerem insegurança jurídica para todo o ecossistema.

O que muda para governança de IA e políticas de uso

Há três frentes que times de produto e risco podem antecipar agora:

  1. Proporcionalidade regulatória. Se o tribunal endossar a tese da “menor restrição necessária”, contratações públicas de IA tenderão a exigir análises granulares de risco por função, em vez de proibições amplas a fornecedores. Isso incentiva documentação técnica, matrizes de perigo, logs de segurança, filtros por domínio e protocolos de override humano justificado.

  2. Salvaguardas como cláusula negociável. O litígio reforça que guardrails não são mero apêndice, e sim componente contratual. Limites explícitos ao uso para vigilância doméstica ou armamento autônomo, caso a caso, podem virar linha-base em RFPs, com exceções rastreáveis e mecanismos de auditoria em tempo real.

  3. Divergência entre laboratórios e efeito no recrutamento. A adesão pública de profissionais de OpenAI e Google a uma rival sugere que valores de segurança e posicionamentos éticos pesam na retenção de talentos. Empresas que ignorarem esse fator podem ver êxodos internos em momentos críticos de contrato.

Ferramentas, práticas e trilhas de auditoria que valem adotar já

Mesmo empresas sem contratos públicos podem se beneficiar de práticas que resistem a escrutínio regulatório e judicial:

  • Políticas de uso “testáveis”. Converta diretrizes em especificações técnicas, com testes automatizados de prompts proibidos, testes A/B de tolerância de guardrails e registros versionados de mudanças.
  • Controles por contexto. Diferencie limites por inquilino, setor e nível de classificação de dados, com whitelists e blacklists dinâmicas e explicáveis.
  • Logs invioláveis. Mantenha trilhas de auditoria de prompts e saídas com hash e carimbo de tempo, segregadas por cliente e finalidade, para reproduzir decisões.
  • Revisão humana mandatória. Para tarefas com risco de dano físico ou perda de direitos, exija aprovação humana com dupla verificação, e descreva essa salvaguarda nos anexos técnicos do contrato.
  • Playbooks de exceção. Documente fluxos para pedidos governamentais de exceção, com critérios, responsáveis e janela de validade, registrando decisão jurídica e técnica.

Essas rotinas aumentam a confiiança de compradores públicos e privados e, se questionadas em juízo, mostram que as restrições foram calibradas com base técnica, não ideológica.

![Logotipo da OpenAI, um dos polos do debate]

Como este caso pode redefinir parcerias público privadas em IA

Relatos indicam que a rotulagem como risco obriga contratadas a evitar o uso do Claude em entregas para o DoD e pressiona cadeias de fornecedores. A Anthropic busca uma liminar para seguir atendendo parceiros enquanto o mérito é analisado. Se a corte limitar a designação, o DoD pode ter de especificar riscos por função, não por fornecedor, o que exigirá arcabouços de avaliação de modelos por tarefa e edição de políticas de compliance setoriais.

No curto prazo, a vantagem competitiva pode migrar de quem promete amplitude de uso para quem prova governança e auditabilidade. O movimento do Google de oferecer ferramentas de agentes para tarefas não classificadas sinaliza uma estratégia incremental que reduz atrito regulatório, enquanto a controvérsia entre OpenAI e Anthropic, narrada por veículos como Fortune e Axios, reconfigura percepções de risco político e reputacional.

Vozes, tensões e a moeda política da segurança

A cobertura da imprensa de referência realça que a disputa vai além de contratos. The Washington Post e The Guardian destacam alegações de que a administração retaliou contra a posição declarada da Anthropic sobre limitações de uso, reacendendo discussões sobre limites de poder administrativo e liberdade de expressão corporativa. A forma como o judiciário enquadrar essa tensão moldará o espaço de manobra de companhias que, ao mesmo tempo, são reguladas e essenciais para objetivos estratégicos de segurança.

Para investidores, o risco não é apenas perder um único contrato, é a incerteza sobre se políticas internas de segurança podem virar passivo regulatório. Para gestores de produto, o recado é claro: clareza nas políticas, telemetria robusta e capacidade de auditoria proativa podem se tornar diferenciais comerciais, além de proteção legal.

Conclusão

A mobilização de funcionários de OpenAI e Google em defesa da Anthropic elevou o caso a um referendo sobre os limites da IA militar. Independentemente do desfecho imediato, a tendência aponta para contratos mais granulares, com salvaguardas testáveis e trilhas de auditoria que sustentem o “porquê” de cada restrição. Nesse cenário, a palavra de ordem é alinhamento entre princípios de segurança, viabilidade operacional e transparência contratual.

Em termos práticos, times que documentarem claramente suas políticas de uso, converterem-nas em controles técnicos verificáveis e manterem diálogo estruturado com clientes públicos reduzirão atritos, evitarão litígios e estarão melhor posicionados para navegar a próxima onda regulatória de IA, que tende a valorizar o que é demonstrável, não apenas o que é declaratório.

Tags

AnthropicOpenAIGoogle DeepMindDefesaGovernança de IA