xAI fecha acordo com o Pentágono para uso do Grok em sigilo
O acordo entre a xAI e o Pentágono leva o Grok para sistemas classificados, muda o tabuleiro da IA militar e pressiona rivais como Anthropic, Google e OpenAI em políticas de uso para fins legais.
Danilo Gato
Autor
Introdução
xAI acordo Pentágono Grok. O Departamento de Defesa dos Estados Unidos firmou um acordo com a xAI para disponibilizar o Grok em sistemas classificados, segundo confirmação de autoridade de Defesa aos repórteres da Axios. O New York Times foi o primeiro a reportar a assinatura do acordo. A Axios acrescenta que, até então, Claude da Anthropic era o único modelo disponível nos ambientes de inteligência e operações mais sensíveis, o que realça o peso desta decisão.
O contexto é uma disputa aberta entre o Pentágono e a Anthropic sobre uma cláusula de uso para todos os fins legais. Enquanto a Anthropic resiste a autorizar aplicações como vigilância em massa de americanos e o desenvolvimento de armas totalmente autônomas, a xAI aceitou esse padrão, o que abriu caminho para o Grok no espaço classificado. O cenário pressiona também Google e OpenAI, que já oferecem modelos em sistemas não classificados e discutem ingresso no ambiente sigiloso.
O artigo aprofunda os fatos verificados, a cronologia do impasse, como o acordo muda o equilíbrio competitivo, quais são as implicações técnicas e de governança em operações sigilosas, além do que acompanhar nos próximos meses.
O que exatamente foi acordado e por que importa
A autoridade de Defesa confirmou à Axios que a xAI assinou um acordo para permitir que o Grok opere em sistemas classificados do Pentágono. O Times, por sua vez, relatou primeiro que a assinatura ocorreu, enquanto a xAI não comentou. A Axios destaca que, até então, Claude era a única IA presente nesses ambientes, reforçando o impacto da entrada do Grok.
Este movimento ocorre em paralelo à aceleração de tratativas com Google e OpenAI para levar Gemini e ChatGPT aos ambientes classificados. Embora fontes indiquem que as conversas seguem em ritmos diferentes, o Departamento de Defesa crê que ambos devem assinar acordos, todos sob a mesma cláusula de todos os fins legais. O pano de fundo é a possibilidade real de desligamento de Claude, caso a Anthropic não aceite os termos exigidos.
Na prática, a presença do Grok em sistemas classificados cria redundância estratégica. A dependência de um único fornecedor em ambientes de alto risco sempre foi vista como frágil. Ao habilitar um segundo modelo, o Pentágono ganha alternativa imediata e poder de barganha, além de margem para comparar desempenho, latência, conformidade e confiabilidade em missões críticas.
![Aérea do Pentágono]
A disputa com a Anthropic, a cláusula de todos os fins legais e a escalada jurídica
A exigência central do governo é que os modelos possam ser usados para todos os fins legais. Segundo o Washington Post, o porta voz do Departamento afirmou publicamente que o objetivo é permitir o uso para todos os fins legais, ao mesmo tempo em que negou interesse em vigilância doméstica em massa ou armas autônomas, embora esses temas sigam no centro do debate. Esse enquadramento foi reafirmado em análises do Council on Foreign Relations.
A Anthropic rejeitou a versão apresentada como oferta final, apontando riscos específicos para vigilância em massa e para o desenvolvimento de armas totalmente autônomas, conforme reportagens da Axios e do Washington Post. O impasse escalou com ameaças do Departamento de considerar a empresa um risco de cadeia de suprimentos, de rescindir contratos e até de usar a Lei de Produção de Defesa.
Em 8 e 9 de abril de 2026, a Axios e a Associated Press reportaram que a Anthropic perdeu no Tribunal de Apelações de Washington uma tentativa de blindagem judicial contra medidas do governo, um revés que pode facilitar a adoção de sanções administrativas como a designação de risco de cadeia de suprimentos.
A análise jurídica publicada pelo escritório Mayer Brown descreve a designação de risco de cadeia de suprimentos e o direcionamento para cessações de uso da tecnologia da Anthropic por agências federais, consolidando a gravidade do confronto. A Forbes detalhou a base legal e o argumento do governo de que a cláusula é uma condição comercial, não expressão protegida.
Como o Grok vem sendo posicionado em governo e Defesa
A Associated Press relatou que um alto funcionário de Defesa afirmou que o Grok já estava pronto para uso em ambientes classificados, e que o Departamento vinha ampliando contratos com laboratórios como xAI, Google e OpenAI, com ofertas para uso em sistemas não classificados enquanto avançavam negociações para o espaço sigiloso. A Axios confirmou que Grok, Gemini e ChatGPT já estavam presentes em ambientes não classificados, com discussões para migrar ao classificado.
Esse posicionamento tem dois eixos. O primeiro é capacitar analistas e operadores com copilotos de missão, geointeligência, fusão de sinais e análise de padrões. O segundo é construir trilhas de auditoria e controles para que o uso de IA em Defesa obedeça processos, níveis de confidencialidade e regras de engajamento. A exigência de todos os fins legais aumenta o espectro de aplicações possíveis, e por isso exige governança mais robusta para mitigar riscos de uso indevido.
![Logotipo do Grok, xAI]
Principais implicações técnicas e de segurança ao levar LLMs para o ambiente classificado
- Hardening e isolamento. Modelos em ambiente classificado exigem isolamento físico e lógico, segmentação de rede, mediação de prompts e respostas, além de telemetria mínima viável para auditoria. Em geral, isso implica execução on premises, air gap parcial, servidores aprovados e pipelines de atualização validados por equipes de segurança.
- Fine-tuning e RAG controlados. A curadoria de dados de referência precisa evitar contaminação com informações fora do clearance, e logs devem ser particionados para não vazar metadados sensíveis. O uso de RAG em bases classificadas demanda indexação com criptografia em repouso e em trânsito.
- Red teaming contínuo. Adoção segura significa simular cenários adversários, prompt injection e jailbreaks, avaliando respostas frente a regras de engajamento e direito operacional. Isso é especialmente sensível quando a cláusula permite todos os fins legais, já que amplia casos de uso críticos. Esses pontos estão no centro do litígio público reportado por AP, Washington Post e Axios.

- Interoperabilidade. Como a Axios descreve, o Pentágono acelera conversas com vários provedores. Portabilidade de cargas de trabalho, equivalência de APIs e padrões de avaliação tornam se prioridades para evitar vendor lock in em missões.
Linha do tempo, players e o que cada um busca
- 23 de fevereiro de 2026. Axios reporta que a xAI e o Pentágono firmaram acordo para levar o Grok a sistemas classificados, citando confirmação de autoridade de Defesa, e indica que o NYT noticiou primeiro a assinatura. Também relata que Claude era o único modelo em uso nos ambientes mais sensíveis.
- 24 a 27 de fevereiro. Washington Post, Axios e Foreign Policy descrevem a escalada nas negociações, o ultimato a Dario Amodei, a exigência de todos os fins legais e a possibilidade de designar a Anthropic como risco de cadeia de suprimentos ou acionar a Lei de Produção de Defesa.
- Março de 2026. Forbes detalha a fundamentação legal debatida e relata os riscos comerciais para a Anthropic. O Mayer Brown publica análise sobre impactos para contratantes públicos após a designação de risco.
- 8 e 9 de abril de 2026. Axios e AP noticiam derrota da Anthropic no Tribunal de Apelações, sinalizando ambiente menos favorável para uma liminar que evitasse medidas administrativas.
Interpretação. A entrada do Grok no ambiente classificado atende a três objetivos do Pentágono. Reduz dependência de um único fornecedor, aumenta a probabilidade de fechar acordos paralelos com Google e OpenAI sob o mesmo padrão, e cria lastro imediato caso a Anthropic mantenha a recusa à cláusula de todos os fins legais. Esses pontos estão refletidos nos relatos da Axios e nas análises do Washington Post e do CFR.
Riscos, salvaguardas e governança que importam agora
- Prevenção de uso indevido. O histórico recente de modelos públicos mostra desafios com geração e edição de imagens problemáticas, o que levou a restrições e investigações regulatórias em diferentes países no caso do Grok, segundo cobertura de AP e Axios em janeiro e nos meses seguintes. Em contexto classificado, políticas de uso, filtros e auditorias precisam ser mais estritos do que em ambientes abertos.
- Transparência operacional. O Pentágono sinalizou publicamente que não busca vigilância doméstica em massa nem armas autônomas, mas deseja autorização ampla para todos os fins legais. Isso demanda mecanismos de justificação de consultas, revisão independente e logs assinados, sempre sob cadeia de custódia.
- Avaliação de vieses e robustez. Em missões reais, vieses podem afetar priorização de alvos ou interpretação de sinais. Adoção com RAG em dados proprietários classificados ajuda a mitigar alucinações, mas não elimina a necessidade de validação humana em laço, especialmente em cenários de uso que tocam emprego de força.
- Conformidade contratual. A cláusula de todos os fins legais é decisiva. Ao aceitá la, a xAI ganhou vantagem competitiva imediata no espaço classificado. Rivais tendem a alinhar propostas técnicas e jurídicas para não perder terreno em contratos estratégicos. Reportagens indicam que Google e OpenAI já negociavam condições similares.
Como equipes técnicas podem se preparar, mesmo fora do setor público
- Definir zonas de dados e níveis de confidencialidade. Classifique dados por sensibilidade e estabeleça políticas de acesso para cada zona. Emule, quando possível, padrões de ambientes classificados, com segmentação e monitoramento reforçados.
- Catalogar riscos por caso de uso. Em cenários sensíveis, liste potencial de dano, requisitos de validação humana e trilhas de auditoria. A controvérsia pública sobre vigilância e armas autônomas mostra que não basta a política no papel, é preciso controles exequíveis. As reportagens do Washington Post e do CFR ajudam a mapear pressupostos de risco.
- Avaliar fornecedores por cláusulas de uso. O debate em torno de todos os fins legais mostra que o texto contratual pode redefinir limites técnicos. Antes de escolher modelo, avalie não só métricas de qualidade, mas também permissões e obrigações firmadas.
- Padronizar avaliações entre modelos. Com mais de um LLM no pipeline, crie benchmarks internos para respostas a prompts críticos, estabilidade sob pressão e latência. A notícia da Axios sobre o Grok em sistemas classificados reforça a tendência de multivendor.
O que observar nos próximos meses
- Novos acordos com outros laboratórios. A Axios reportou que Google e OpenAI também discutem ingresso em sistemas classificados. A qualquer momento pode surgir confirmação de termos similares.
- Resultado de ações judiciais. Até 9 de abril de 2026, a Anthropic acumulou derrotas relevantes em cortes de Washington, o que pode acelerar medidas administrativas. Mudanças nesse placar jurídico podem reequilibrar a disputa.
- Diretrizes públicas sobre restrições práticas. Mesmo sob a cláusula ampla, a implementação técnica costuma impor barreiras para cenários controversos. Sinais adicionais do Departamento, como orientações operacionais, podem reduzir incertezas de mercado. Registros recentes em Washington Post e CFR mostram esforço de comunicação pública.
Conclusão
O acordo do Pentágono com a xAI para levar o Grok ao ambiente classificado adiciona redundância estratégica e muda a dinâmica de negociação com os principais laboratórios de IA. Confirmado pela Axios, com primeira notícia da assinatura pelo NYT, o movimento acontece em meio a uma disputa jurídica e regulatória que define os limites práticos do que governos podem exigir e do que empresas estão dispostas a aceitar. Ao aceitar a cláusula de todos os fins legais, a xAI capturou uma janela de oportunidade.
A trajetória daqui depende de três vetores. A evolução das ações judiciais envolvendo a Anthropic, a capacidade do Departamento de equilibrar autorização ampla com governança concreta e a resposta competitiva de Google e OpenAI. Para equipes técnicas e executivos, a lição é clara. Quando o contrato muda, o produto muda. E em sistemas críticos, cláusulas de uso são tão estratégicas quanto tokens por segundo ou benchmarks de qualidade.
