Funcionários de OpenAI e Google defendem Anthropic no processo do DoD
Mais de 30 profissionais de OpenAI e Google DeepMind assinam apoio jurídico à Anthropic em disputa com o Departamento de Defesa dos EUA, acendendo debate sobre limites éticos do uso militar de IA
Danilo Gato
Autor
Introdução
Mais de 30 funcionários de OpenAI e Google DeepMind assinaram um amicus brief em apoio à Anthropic em seu processo contra o Departamento de Defesa dos EUA, reacendendo o debate sobre como a inteligência artificial deve ser usada em contextos militares. A palavra-chave Anthropic DoD aparece aqui porque resume o cerne da disputa: um embate legal com implicações técnicas, comerciais e éticas para o ecossistema de IA.
A ação da Anthropic contesta a designação de “risco à cadeia de suprimentos” feita pelo DoD, uma medida que corta o uso do Claude por contratadas de defesa e, segundo a empresa, viola direitos de liberdade de expressão e devido processo. A mobilização de pesquisadores e engenheiros de empresas rivais como OpenAI e Google adiciona peso político e técnico à discussão, sinalizando que a governança de IA não é apenas uma briga de corporações, é uma preocupação transversal de toda a comunidade.
Este artigo destrincha o que está em jogo, o que dizem as petições, como os mercados e o governo reagem, e quais lições práticas surgem para times de produto, jurídico e segurança que operam IA em contextos regulados.
O que exatamente está sendo disputado
A Anthropic entrou com duas ações federais questionando a designação do DoD que classifica a empresa como “risco à cadeia de suprimentos”, medida que, na prática, bloqueia sua tecnologia em contratos de defesa. A companhia argumenta que foi punida por manter salvaguardas contra vigilância em massa e uso bélico autônomo, e por defender publicamente limites ao emprego do seu modelo Claude, o que estaria protegido pela Primeira Emenda.
Segundo reportagens e um “explainer” jurídico, a origem do impasse remonta às negociações do GenAI.mil no fim de 2025, quando, de acordo com a Anthropic, o governo teria exigido o abandono total da política de uso, permitindo “todos os usos legais” do modelo. A empresa alega que buscou compromissos, inclusive criando o Claude Gov e flexibilizando restrições para cenários de segurança nacional, mas recusou abrir mão de limites para vigilância doméstica e armas totalmente autônomas.
A designação de risco, assinada no fim de fevereiro e comunicada formalmente à empresa em março, é descrita por veículos como uma ferramenta sem precedentes aplicada a uma companhia americana de IA, com efeitos que se estendem a contratadas e subcontratadas do Pentágono.
O movimento da comunidade técnica, e por que isso importa
O apoio de mais de 30 funcionários de OpenAI e Google DeepMind, incluindo o cientista-chefe Jeff Dean, chegou horas após o protocolo da ação judicial da Anthropic. O amicus brief sustenta que impor o uso “para todos os fins legais” sem salvaguardas minaria princípios de segurança e pesquisa responsável. Não é um detalhe simbólico, é sinal de alinhamento entre praticantes que, mesmo empregados por concorrentes, convergem no ponto de que guardrails técnicos e de política importam.
Esse gesto acontece enquanto o próprio governo amplia parcerias com outros fornecedores. Google, por exemplo, anunciou o Agent Designer no Gemini for Government, recurso para criação de agentes para tarefas não classificadas, enquanto cresce o número de usuários militares de suas ferramentas. O pano de fundo é de competição intensa entre grandes laboratórios, onde posicionamento ético pode influenciar tanto a adoção quanto a carreira de talentos.
![O Pentágono, sede do DoD]
O contra-ataque jurídico e a anatomia do risco
A Anthropic sustenta que a lei de risco de cadeia de suprimentos foi aplicada de forma indevida, porque deveria proteger programas sensíveis com a “menor restrição necessária”, não servir como instrumento punitivo por divergência de visão. A queixa também alega violação de devido processo e retaliação por discurso protegido. Esse argumento, se acolhido, pode estabelecer um precedente que limita o alcance de ordens administrativas quando colidem com políticas de segurança de IA declaradas por fornecedores.
Do outro lado, autoridades sinalizam que a exigência por flexibilidade operacional em aplicações militares é legítima diante de riscos de segurança nacional. Reportagens registram que a pasta teria advertido a Anthropic a “cruzar o Rubicão” em casos de uso militar e, segundo fontes, chegou a dar prazos duros durante as negociações. Mesmo sem comentários oficiais sobre litígios em curso, a mensagem que transparece é que o DoD quer alinhamento irrestrito às suas necessidades, especialmente em tempos de modernização acelerada.
Para equipes jurídicas em empresas de IA, o caso ilustra a importância de mapear onde políticas de uso, avaliações de risco e contratos públicos se chocam. Documentar as bases técnicas para salvaguardas, como restrições a geração de planos de ataque autônomo ou ajuda a vigilância predatória, pode ser crucial em disputas futuras sobre suposta “inviabilidade operacional” do produto.
Efeitos colaterais no mercado, nos contratos e na opinião pública
O impacto não é apenas legal. A substituição da Anthropic por outros fornecedores deflagrou ondas de reação do público e de usuários corporativos, com métricas como desinstalações de apps associadas a anúncios de contratos militares. Em paralelo, empresas parceiras e grandes fornecedores de nuvem acompanham o caso por potenciais efeitos em acordos de compliance e auditoria de modelos.
Ao mesmo tempo, vozes de peso do setor privado e de ex-chefes militares apareceram em petições, pedindo revisão ou moratória da designação. Microsoft, por exemplo, entrou com manifestação criticando a medida como vaga e sem precedente, pedindo suspensão temporária para permitir um debate mais razoado. Esse coro heterogêneo expõe um ponto vital: mesmo quem entrega tecnologia ao governo teme que regras mal desenhadas gerem insegurança jurídica para todo o ecossistema.
O que muda para governança de IA e políticas de uso
Há três frentes que times de produto e risco podem antecipar agora:
-
Proporcionalidade regulatória. Se o tribunal endossar a tese da “menor restrição necessária”, contratações públicas de IA tenderão a exigir análises granulares de risco por função, em vez de proibições amplas a fornecedores. Isso incentiva documentação técnica, matrizes de perigo, logs de segurança, filtros por domínio e protocolos de override humano justificado.
-
Salvaguardas como cláusula negociável. O litígio reforça que guardrails não são mero apêndice, e sim componente contratual. Limites explícitos ao uso para vigilância doméstica ou armamento autônomo, caso a caso, podem virar linha-base em RFPs, com exceções rastreáveis e mecanismos de auditoria em tempo real.
-
Divergência entre laboratórios e efeito no recrutamento. A adesão pública de profissionais de OpenAI e Google a uma rival sugere que valores de segurança e posicionamentos éticos pesam na retenção de talentos. Empresas que ignorarem esse fator podem ver êxodos internos em momentos críticos de contrato.
Ferramentas, práticas e trilhas de auditoria que valem adotar já
Mesmo empresas sem contratos públicos podem se beneficiar de práticas que resistem a escrutínio regulatório e judicial:
- Políticas de uso “testáveis”. Converta diretrizes em especificações técnicas, com testes automatizados de prompts proibidos, testes A/B de tolerância de guardrails e registros versionados de mudanças.
- Controles por contexto. Diferencie limites por inquilino, setor e nível de classificação de dados, com whitelists e blacklists dinâmicas e explicáveis.
- Logs invioláveis. Mantenha trilhas de auditoria de prompts e saídas com hash e carimbo de tempo, segregadas por cliente e finalidade, para reproduzir decisões.
- Revisão humana mandatória. Para tarefas com risco de dano físico ou perda de direitos, exija aprovação humana com dupla verificação, e descreva essa salvaguarda nos anexos técnicos do contrato.
- Playbooks de exceção. Documente fluxos para pedidos governamentais de exceção, com critérios, responsáveis e janela de validade, registrando decisão jurídica e técnica.
Essas rotinas aumentam a confiiança de compradores públicos e privados e, se questionadas em juízo, mostram que as restrições foram calibradas com base técnica, não ideológica.
![Logotipo da OpenAI, um dos polos do debate]
Como este caso pode redefinir parcerias público privadas em IA
Relatos indicam que a rotulagem como risco obriga contratadas a evitar o uso do Claude em entregas para o DoD e pressiona cadeias de fornecedores. A Anthropic busca uma liminar para seguir atendendo parceiros enquanto o mérito é analisado. Se a corte limitar a designação, o DoD pode ter de especificar riscos por função, não por fornecedor, o que exigirá arcabouços de avaliação de modelos por tarefa e edição de políticas de compliance setoriais.
No curto prazo, a vantagem competitiva pode migrar de quem promete amplitude de uso para quem prova governança e auditabilidade. O movimento do Google de oferecer ferramentas de agentes para tarefas não classificadas sinaliza uma estratégia incremental que reduz atrito regulatório, enquanto a controvérsia entre OpenAI e Anthropic, narrada por veículos como Fortune e Axios, reconfigura percepções de risco político e reputacional.
Vozes, tensões e a moeda política da segurança
A cobertura da imprensa de referência realça que a disputa vai além de contratos. The Washington Post e The Guardian destacam alegações de que a administração retaliou contra a posição declarada da Anthropic sobre limitações de uso, reacendendo discussões sobre limites de poder administrativo e liberdade de expressão corporativa. A forma como o judiciário enquadrar essa tensão moldará o espaço de manobra de companhias que, ao mesmo tempo, são reguladas e essenciais para objetivos estratégicos de segurança.
Para investidores, o risco não é apenas perder um único contrato, é a incerteza sobre se políticas internas de segurança podem virar passivo regulatório. Para gestores de produto, o recado é claro: clareza nas políticas, telemetria robusta e capacidade de auditoria proativa podem se tornar diferenciais comerciais, além de proteção legal.
Conclusão
A mobilização de funcionários de OpenAI e Google em defesa da Anthropic elevou o caso a um referendo sobre os limites da IA militar. Independentemente do desfecho imediato, a tendência aponta para contratos mais granulares, com salvaguardas testáveis e trilhas de auditoria que sustentem o “porquê” de cada restrição. Nesse cenário, a palavra de ordem é alinhamento entre princípios de segurança, viabilidade operacional e transparência contratual.
Em termos práticos, times que documentarem claramente suas políticas de uso, converterem-nas em controles técnicos verificáveis e manterem diálogo estruturado com clientes públicos reduzirão atritos, evitarão litígios e estarão melhor posicionados para navegar a próxima onda regulatória de IA, que tende a valorizar o que é demonstrável, não apenas o que é declaratório.
