Pentágono pede que contratadas avaliem dependência do Claude da Anthropic, em meio a passo para blacklist
O Departamento de Defesa dos EUA acionou gigantes como Boeing e Lockheed para mapear uso do Claude, sinalizando possível classificação da Anthropic como risco de cadeia de suprimentos e elevando a disputa sobre salvaguardas em IA
Danilo Gato
Autor
Introdução
O Pentágono acionou grandes contratadas para avaliarem a dependência do Claude, da Anthropic, passo inicial rumo a uma possível designação de risco na cadeia de suprimentos, frequentemente associada a empresas de países adversários. O recado veio junto de um ultimato com prazo até as 17h01 de sexta feira, horário da Costa Leste, para que a Anthropic aceite termos de uso militar mais amplos ou enfrente medidas como blacklist e até o uso do Defense Production Act.
A disputa gira em torno das salvaguardas do modelo Claude. A Anthropic resiste a liberar usos como vigilância em massa de americanos e armas autônomas sem envolvimento humano, enquanto o Departamento de Defesa alega inviabilidade operacional ao negociar caso a caso e avalia forçar acesso irrestrito. O cenário é inédito para uma big tech de IA com presença em redes classificadas do governo, e tem efeitos potencialmente amplos para fornecedores e clientes corporativos.
O que aconteceu e por que importa
A sequência dos fatos, confirmada por reportagens recentes, mostra escalada rápida. O Departamento de Defesa contatou Boeing e Lockheed Martin na quarta feira, pedindo um raio X do uso do Claude e a exposição a serviços da Anthropic. A Boeing indicou não ter contratos ativos com a Anthropic, enquanto a Lockheed confirmou a solicitação e uma análise de exposição antes de uma possível declaração de risco de cadeia de suprimentos. O prazo público imposto à Anthropic vence às 17h01 de sexta feira.
O que torna o caso excepcional é a combinação de três instrumentos de pressão. Primeiro, a eventual rescisão de contratos com a Anthropic. Segundo, a classificação de “supply chain risk”, medida que costuma recair sobre alvos como Huawei e que obrigaria fornecedores a eliminarem dependências. Terceiro, a ameaça de invocar o Defense Production Act, lei que permite compelir empresas a priorizar demandas de defesa, uso que já ocorreu na pandemia, mas que seria inédito para remover salvaguardas éticas de um modelo de IA.
Relatos adicionais indicam que o Claude opera hoje em ambientes classificados, fruto de contratos que somam até 200 milhões de dólares no ecossistema de IA militar, e que outras empresas, como Google e OpenAI, negociam acessos semelhantes. Há menções a um acordo para levar o sistema do xAI, de Elon Musk, ao espaço classificado sob o padrão de “all lawful use”, exatamente o ponto que a Anthropic rejeita.
O que a “blacklist” significaria na prática
Designar a Anthropic como risco de cadeia de suprimentos desencadearia efeitos em cascata. Na prática, cada contratada do Pentágono teria de certificar não usar o Claude, promovendo auditorias internas e substituições de fluxos que dependem do modelo. Para empresas com portfólios duais, civis e de defesa, o caminho mais conservador tende a ser a padronização em um único stack de IA que não gere atrito regulatório, o que eleva o custo de permanência com o Claude mesmo fora de contratos governamentais.
Do ponto de vista de compliance, o esforço envolve inventariar prompts, integrações de agentes, APIs e dados sensíveis, inclusive em fluxos de terceiros onde o Claude aparece como componente embarcado. Esse trabalho não é trivial em 2026, fase em que agentes de IA já orquestram tarefas, chamam ferramentas e se acoplam a ERPs e repositórios, como discute a literatura recente sobre segurança de agentes e políticas dinâmicas. Embora não trate do caso Anthropic, a pesquisa sobre “authenticated workflows” ajuda a entender o nível de controle que organizações buscam para garantir rastreabilidade, políticas e integridade em orquestrações de IAs.
Para fornecedores que dependem de contratos públicos, a incerteza jurídica incentiva a migração preventiva. É o famoso custo de risco, muitas vezes maior do que o custo tecnológico. Tecnicamente, trocar um modelo por outro pode ser simples em testes, mas envolve requalificar dados, redimensionar proteção de alucinações, redesenhar guardrails, recalibrar RAG e retestar integrações, especialmente quando há exigências de segurança em nível governamental.
![Vista aérea do Pentágono]
O que está em disputa nas salvaguardas do Claude
O nó do impasse são limites de uso. A Anthropic tem políticas que bloqueiam vigilância em massa doméstica e desenvolvimento de armas que disparem sem humano no loop. O Pentágono considera inviável depender de aprovações caso a caso e afirma que outros fornecedores já aceitaram o padrão de “all lawful purposes”. Em paralelo, há negociações para levar modelos concorrentes ao espaço classificado, o que reduziria a dependência de um único fornecedor.
As salvaguardas não são apenas filtros de prompt. Em sistemas agentic, políticas precisam acompanhar ferramentas, dados, contexto e delegações entre agentes. A recusa da Anthropic parece se concentrar em duas classes de uso, com alto potencial de abuso e impacto reputacional, enquanto o DoD vê esses limites como barreira operacional diante de missões que demandam amplitude de ações e rapidez. É a colisão clássica entre postura ética corporativa e requisitos de emprego militar.
A mídia especializada e a grande imprensa convergem em pontos centrais. Há um prazo explícito, 5 da tarde e 1 minuto de sexta feira, e um cardápio de sanções em avaliação, incluindo DPA e supply chain risk. Há também a percepção de que aplicar DPA para forçar alteração de políticas de uso de IA, e não apenas de produção, seria inédito e juridicamente contestável, o que projeta litígios se o cenário escalar.
Sinais de mercado e cenários para fornecedores
Para as grandes contratadas, o primeiro passo recomendado é mapear onde o Claude aparece. Isso inclui serviços próprios e de terceiros, integrações em plataformas de dados e automações em times de engenharia, jurídico, supply e operações. O chamado do Pentágono para que “todos os primes” avaliem a exposição sugere que a obrigação de inventário pode se estender em cadeia, atingindo subcontratadas e fornecedores menores.
Um cenário de blacklist num fornecedor de IA doméstico é raro e traz consequências reputacionais e comerciais. Parte do mercado pode interpretar uma eventual punição como sinal de risco político, preferindo um stack que já esteja alinhado ao “all lawful use”, ainda que com trade offs de segurança. Outra parcela pode ver vantagem competitiva em manter salvaguardas mais rígidas, se clientes valorizam garantias contra vigilância e autonomia letal. Em ambos os casos, a incerteza empurra custos de avaliação, mitigação e comunicação para as empresas.
Do lado da Anthropic, a leitura é ambivalente. Um choque aberto com o Pentágono arranha receitas públicas e relacionamento institucional, mas também pode reforçar a marca junto a talentos e clientes que priorizam princípios de segurança e direitos civis. Já a capitulação reduziria ruídos regulatórios com defesa, porém criaria ruído reputacional com defensores de segurança em IA. A balança, portanto, é estratégica.
![Conceito visual de inteligência artificial]
Implicações legais, políticas e de governança
O uso do Defense Production Act para moldar políticas de uso, e não apenas priorizar produção, reacendeu o debate sobre limites de poder do Executivo em tecnologia. Especialistas ouvidos por veículos de referência classificam o movimento como sem precedentes e potencial gatilho para litígios e escrutínio no Congresso. Também há risco de efeito resfriador, em que startups de fronteira evitem o mercado público para não se verem obrigadas a afrouxar salvaguardas.
No plano de políticas, reportagens indicam que o DoD quer evitar dependência de um único provedor com acesso classificado, meta alinhada a memorandos de segurança herdados de governos anteriores, mas que ainda não se materializou totalmente na prática. Daí a pressa em homologar alternativas como o xAI e acelerar conversas com Google e OpenAI, desde que aceitem os mesmos termos.
Para governança corporativa, o caso é um lembrete: cláusulas de uso aceitável e de lawful purposes em contratos com o setor público precisam ser casadas com arquitetura técnica que torne exequível o que está no papel. Empresas que dependem de agentes de IA em processos críticos devem conseguir auditar, provar e, se preciso, reconfigurar políticas no nível de ferramentas, dados e contexto, conceito presente em pesquisas de segurança para fluxos autenticados.
Como as empresas podem reagir agora
-
Mapear dependências. Levantar todas as instâncias onde o Claude aparece, inclusive via fornecedores. Classificar por criticidade, dados sensíveis e impacto operacional se houver troca de modelo.
-
Preparar planos de substituição. Criar trilhas A e B com modelos alternativos em tarefas críticas. Validar qualidade, latência, custo e segurança sob os mesmos benchmarks internos. Onde houver requisito de “all lawful use”, avaliar controles compensatórios e auditoria reforçada.
-
Fortalecer governança de agentes. Implementar camadas de política e verificação em prompts, ferramentas, dados e contexto, reduzindo dependência de guardrails puramente semânticos. Documentar trilhas de auditoria e critérios de autorização.
-
Comunicação com stakeholders. Clientes governamentais vão exigir garantias, datas e evidências. Investidores e conselhos cobrarão clareza sobre impactos financeiros e de risco reputacional. Antecipar Q&A com base nos cenários público, blacklist, DPA e litígio.
Reflexões e insights para além do caso
Trata se, no fundo, de quem define os limites do que uma IA pode fazer em ambientes de alto risco. Se o governo impõe o padrão “todo uso lícito”, as salvaguardas passam a ser políticas internas, revisáveis conforme doutrina e missão. Se a empresa mantém red lines, ganha previsibilidade ética, mas enfrenta fricções em missões onde a velocidade e a amplitude operacional são soberanas. Essa tensão vai moldar a próxima geração de contratos público privados em IA, e a decisão desta semana pode virar jurisprudência de mercado.
Há também um subtexto competitivo. Ao negociar acessos de rivais ao espaço classificado, o DoD reduz o poder de barganha de qualquer fornecedor isolado. Para a indústria, a lição é clara, diversificação técnica importa tanto quanto princípios. Já para as empresas que consomem IA, o recado é pragmático, construir arquiteturas portáveis, com camadas de política desacopladas do modelo, e prontas para alternar provedores sem reescrever o negócio.
Conclusão
O pedido do Pentágono para que contratadas mapeiem a dependência do Claude marca um ponto de inflexão na relação entre defesa e big techs de IA. O pacote de medidas, que vai de blacklist a DPA, inaugura um teste sobre quem define os limites de uso em aplicações sensíveis, e até onde vai a autoridade estatal para impor padrões operacionais em tecnologia de uso dual. Os próximos dias, com prazo oficial até 17h01 de sexta feira, tendem a definir o contorno jurídico e comercial dessa disputa.
Para o ecossistema, vale a regra de ouro, tenha um plano de contingência, trate políticas de uso como parte do design do sistema e documente tudo. Independentemente do desfecho, o caso Anthropic e Pentágono acelera a maturidade de governança em IA, e quem sair na frente na implementação de controles, portabilidade e auditoria terá menos custos quando a maré mudar novamente.
