Hegseth dá ao CEO da Anthropic até sexta, disputa de IA
Pentágono pressiona Dario Amodei a retirar limites de uso do Claude em operações militares, sob ameaça de DPA e risco na cadeia de suprimentos, enquanto o setor debate salvaguardas de IA e alternativas como o Grok
Danilo Gato
Autor
Introdução
Hegseth colocou a Anthropic contra o relógio com um prazo até sexta-feira, exigindo mudanças nas salvaguardas de IA que regem o uso militar do Claude. A disputa expõe a pressão por acesso irrestrito a modelos avançados e o choque com limites éticos que vetam armas autônomas letais e vigilância em massa de americanos.
O tema é decisivo para segurança nacional e para a governança de IA. O Claude é hoje central em fluxos classificados do Departamento de Defesa, o que torna a negociação delicada, já que cortar o modelo exigiria um substituto imediato que ainda não está maduro. O movimento do Pentágono, que inclui a ameaça de acionar a Defense Production Act e rotular a empresa como risco de cadeia de suprimentos, eleva a temperatura do debate sobre salvaguardas de IA.
Este artigo destrincha o que está em jogo, como o impasse pode se desdobrar, os precedentes legais e técnicos envolvidos, e o que organizações de tecnologia e defesa podem aprender com a disputa por salvaguardas de IA.
O que aconteceu, e por que agora
A reunião de terça-feira, 24 de fevereiro de 2026, colocou na mesma sala o Secretário de Defesa Pete Hegseth e Dario Amodei. Segundo relatos, o tom variou de tenso a cordial, mas com uma mensagem clara, ceder nas salvaguardas de IA ou encarar penalidades severas. Entre as ameaças discutidas, cortar relações contratuais, declarar a empresa risco de cadeia de suprimentos, e até acionar a DPA para forçar adaptação do modelo.
A justificativa oficial gira em torno de flexibilidade operacional, permitir que o DoD decida casos de uso “lícitos” sem vetos impostos pelo fornecedor. Já a Anthropic sustenta que mantém conversas de boa fé e que suas linhas vermelhas, como não usar IA para armas autônomas que disparem sem humano no circuito e não empregar vigilância em massa doméstica, não impediram operações. Salvaguardas de IA, nessa visão, não são obstáculos, e sim garantias mínimas.
Relatos paralelos na imprensa confirmam o prazo até sexta e detalham a ameaça de “blacklist” e de designação como risco de cadeia. A Associated Press e o Washington Post descrevem o impasse ético e estratégico, apontando que o Claude é, hoje, o único modelo plenamente operante em redes classificadas.
![O Pentágono visto do alto]
As salvaguardas de IA em disputa
O cerne do conflito são duas salvaguardas de IA defendidas pela Anthropic, sem armas totalmente autônomas e sem vigilância doméstica em massa. Essas salvaguardas de IA estão presentes na política de uso e têm sido reiteradas em comunicações públicas da empresa. Para o DoD, a exigência é operar “para todos os propósitos legais”, sem amarras contratuais que vetoem casos específicos.
O pano de fundo é a crescente integração de IA em domínios sensíveis como cibernético ofensivo e planejamento de operações. Fontes citadas observam que Claude se destaca em aplicações militares de alta complexidade, algo que aumenta o valor estratégico da negociação, e também a relutância do governo em perder o acesso. Salvaguardas de IA, aqui, não são teóricas, elas delimitam aplicações concretas no limite do aceitável democrático.
A discussão ainda inclui um detalhe político e jurídico, a possibilidade de uso da Defense Production Act como alavanca de negociação, ferramenta rara nesse tipo de disputa com uma empresa de software, mas já acionada na pandemia para ventiladores e vacinas. Isso sinaliza que o tema saiu da esfera contratual comum e entrou no terreno da autoridade executiva.
O papel do Claude em missões e redes classificadas
Reportagens indicam que Claude foi usado via parceria com a Palantir em atividades de planejamento e apoio a operações, inclusive no episódio da captura de Nicolás Maduro em 3 de janeiro de 2026, no contexto da intervenção dos EUA na Venezuela. Há controvérsias sobre se a Anthropic teria levantado preocupações durante essa operação, o que a empresa nega. Independentemente disso, o ponto factual é que o modelo já atua em cenários de alta sensibilidade, o que torna as salvaguardas de IA ainda mais relevantes.
Esse histórico ajuda a explicar por que substituições não são triviais. Levar um modelo ao nível de prontidão para redes classificadas envolve certificações, integrações de segurança, avaliação de confiabilidade e alinhamento operacional. Mesmo com alternativas em pauta, replicar o desempenho de ponta em todos os casos de uso é difícil no curto prazo.
Alternativas na mesa, Grok, OpenAI e Google
Há um movimento do Pentágono para acelerar conversas com outros laboratórios, em especial xAI e Google, enquanto OpenAI figura nos contratos amplos. A xAI firmou contrato relevante em 2025, e o Grok vem sendo integrado em ambientes governamentais, inclusive com metas de chegar a contextos classificados. Ainda assim, não está claro se substituiria imediatamente o Claude em aplicações críticas. Salvaguardas de IA, nesse cenário, podem variar de fornecedor para fornecedor.
Relatos recentes dão conta de que Grok ingressou ou está ingressando em redes classificadas, mas fontes reconhecem dúvidas sobre equivalência funcional. Ao mesmo tempo, discute-se acordo com Google para uso do Gemini sob termos amplos de “todos os propósitos legais”, algo que a Anthropic rejeitou. Isso sugere que salvaguardas de IA se tornaram variável competitiva, não só cláusula ética.
![Corredores de um datacenter, simbolizando infraestrutura de IA]
O que significa acionar a Defense Production Act
A DPA autoriza o presidente a priorizar e direcionar a produção para fins de defesa nacional. Foi usada para escalar insumos durante a COVID-19, porém seu uso para compelir customização de software de IA, sem salvaguardas de IA, seria incomum e provavelmente contestado. Consultores apontam que a Anthropic poderia argumentar que fornece software customizado e não um produto comercial padronizado, o que complicaria a justificativa para DPA.
Uma designação de “risco de cadeia de suprimentos” teria efeito dominó, empurrando outros fornecedores do Pentágono a certificarem que não usam Claude em seus fluxos. Isso isolaria a empresa no ecossistema de defesa e reconfiguraria rapidamente stacks de IA, com altos custos de migração. Salvaguardas de IA, por sua vez, poderiam ser relaxadas de fato caso a substituição recaia em modelos menos restritivos.
Como o mercado de IA de defesa deve reagir
Três forças devem moldar a reação. Primeiro, exigências de interoperabilidade e resiliência, reduzir dependência de um único fornecedor em ambientes classificados, um ponto levantado por analistas que criticam o risco de “single vendor”. Segundo, a competição entre laboratórios por contratos públicos, em que salvaguardas de IA podem ser diferenciais ou barreiras. Terceiro, o custo político de parecer ceder em princípios democráticos de controle humano sobre o uso da força.
Para fornecedores, a lição é clara, ter uma política de uso transparente, mapear casos de uso aceitáveis, documentar salvaguardas de IA verificáveis e construir modos de auditoria que satisfaçam compliance militar sem abrir mão de limites éticos. Para o governo, o recado é investir em portabilidade entre modelos, fine-tuning soberano e pipelines que permitam trocar engines sem reescrever todo o workflow.
Aplicações práticas e caminhos de compromisso
Há espaço para compromisso sem invalidar salvaguardas de IA. Por exemplo, cláusulas que exijam humano no circuito para decisões letais, logs invioláveis de inferência para auditoria posterior, listas brancas de casos de uso e proibições explícitas a vigilância doméstica em massa. Essas salvaguardas de IA poderiam vir acompanhadas de um regime de exceções aprovadas por junta independente e com report público agregado, preservando transparência estratégica. Tais medidas viabilizam missões de inteligência e ciber sem cruzar linhas vermelhas. Essa direção conversa com as notas das partes de que seguem em tratativas de boa fé.
Ao mesmo tempo, a política de aquisição pode estipular testes comparativos em red teams multiagência com critérios idênticos para todos os fornecedores. Isso evita que salvaguardas de IA se tornem desculpa para desempenho inferior ou, no inverso, que desempenho apague riscos sistêmicos. A competição aberta por benchmarks operacionais, com métricas de confiabilidade e latência em ambientes de baixa conectividade, favorece decisões técnicas, não políticas.
O episódio Venezuela e a narrativa pública
A operação que culminou na captura de Maduro virou catalisador simbólico. Relatos de bastidores atribuem à tríade Palantir, Claude e equipes operacionais o apoio tático, e versões conflitantes afirmam que a Anthropic teria externado preocupações via parceiro. A empresa nega. Fato é que a missão elevou o perfil do Claude em operações de alto risco, o que alimenta a leitura de que salvaguardas de IA não bloquearam o trabalho de campo.
Essa visibilidade ampliou custos reputacionais. Ao público, “limites” podem soar como fraqueza. À comunidade técnica, salvaguardas de IA soam como seguro contra externalidades, como escaladas acidentais ou erros de targeting. Ao Congresso, a chave está em mecanismos de supervisão e trilhas de auditoria. Ao setor privado, o aprendizado é como manter contratos robustos com cláusulas éticas que sobrevivam a trocas de governo.
Sinais para os próximos dias
Até sexta-feira, 27 de fevereiro de 2026, três cenários são plausíveis. 1, um acordo parcial que preserve salvaguardas de IA com ajustes operacionais, 2, ruptura com designação de risco e corrida por substitutos, 3, invocação da DPA com batalha judicial. O noticiário e as fontes setoriais reforçam que, embora xAI e Google avancem, ainda não há equivalentes plenamente maduros para todos os usos classificados dominados por Claude.
Para governança de IA, o caso será referência. Se o governo impor um padrão “todos os propósitos legais” sem exceção, salvaguardas de IA podem ceder espaço a controles internos do DoD. Se o setor privado sustentar linhas vermelhas e mesmo assim mantiver contratos, cria-se um precedente de accountability que pode espalhar-se por outras áreas críticas, de saúde a infraestrutura.
Conclusão
O embate entre o Pentágono e a Anthropic vai muito além de uma cláusula contratual. Trata-se do teste mais visível de como salvaguardas de IA sobrevivem ao atrito da realidade operacional. A insistência em vetar armas autônomas letais e vigilância em massa doméstica não é cosmética, é um recado sobre os limites democráticos que devem acompanhar a adoção de IA no coração do Estado.
Independentemente do desfecho, o setor aprendeu uma lição estratégica. Modelos de ponta que entram em redes classificadas precisam de portabilidade, redundância e contratos que harmonizem missão e valores. Salvaguardas de IA não são obstáculo, são a ponte que permite escalar uso responsável em contextos críticos. O prazo de sexta é apenas o começo de uma negociação maior sobre o tipo de sistema sociotécnico que a sociedade quer construir.