Vista aérea do Pentágono, sede do Departamento de Defesa dos EUA
Tecnologia e IA

OpenAI busca acordo no Pentágono, IA classificada, Anthropic

Acordo de IA classificada com o Pentágono avança enquanto a Anthropic enfrenta proibição federal. Entenda fatos, riscos, salvaguardas e impactos práticos para times de tecnologia e compliance.

Danilo Gato

Danilo Gato

Autor

28 de fevereiro de 2026
10 min de leitura

Introdução

OpenAI acordo com o Pentágono para IA classificada deixou de ser hipótese e entrou no centro do noticiário, em meio a um impasse público com a Anthropic. Em 27 e 28 de fevereiro de 2026, fontes reportaram que a OpenAI negocia, e agora anuncia, o uso de seus modelos em redes classificadas do Departamento de Defesa, com salvaguardas explícitas contra vigilância doméstica e armas autônomas. Ao mesmo tempo, a Casa Branca e o Pentágono escalaram a disputa com a Anthropic, culminando em ordens para que agências federais deixem de usar sua tecnologia e na rotulagem da empresa como risco de cadeia de suprimentos.

A relevância do tema é direta para equipes de tecnologia, segurança e compliance. O que está em jogo não é só um contrato, é o modelo de governança de IA aplicada a missões sensíveis. O resultado definirá linhas vermelhas sobre o que é aceitável em defesa, quem decide esses limites e como as salvaguardas técnicas e contratuais serão auditadas.

O que está em jogo: IA classificada, controle de uso e linhas vermelhas

A disputa gira em dois eixos práticos. Primeiro, a integração de modelos de IA em redes classificadas, com todos os requisitos de isolamento, logging e cadeia de custódia. Segundo, o controle sobre como a IA pode ser usada em operações sensíveis, incluindo a proibição de vigilância em massa de cidadãos e o veto a armas que disparem sem um humano na tomada de decisão. A OpenAI sinalizou que um acordo é possível mantendo essas linhas vermelhas, enquanto a Anthropic recusou ceder controle irrestrito, enfatizando riscos de confiabilidade e ética.

Esse não é um debate abstrato. Documentos e reportagens indicam que a Anthropic mantinha um contrato de 200 milhões de dólares com o DoD, e que, em semanas recentes, o governo exigiu acesso mais amplo aos seus modelos Claude, inclusive para usos que a empresa considera inaceitáveis. O ponto de atrito foi a autoridade final sobre quando e como remover guarda‑corpos.

![Vista aérea do Pentágono em 15 de maio de 2023]

Linha do tempo dos fatos recentes

  • 24 a 27 de fevereiro de 2026. O secretário de Defesa Pete Hegseth impõe um ultimato à Anthropic, exigindo acesso militar irrestrito aos seus modelos, sob pena de cancelamento contratual e classificação da empresa como risco de cadeia de suprimentos. A Associated Press e a CBS noticiam o prazo e as ameaças formais.
  • 27 de fevereiro de 2026. A Casa Branca ordena que agências federais parem imediatamente de usar a tecnologia da Anthropic, e o Pentágono avança na designação de risco de cadeia de suprimentos. Relatos de veículos como The Guardian, The Verge e a NBC detalham o efeito cascata para órgãos e contratadas.
  • 27 de fevereiro de 2026. Em paralelo, Sam Altman informa funcionários que a OpenAI negocia um acordo com o governo para operar em ambientes classificados, com um safety stack próprio e manutenção de linhas vermelhas contra vigilância doméstica e armas autônomas. Fortune publica o conteúdo essencial do all‑hands.
  • 27 a 28 de fevereiro de 2026. Coberturas adicionais indicam que a OpenAI buscou, e anunciou, um acerto para uso em rede classificada, mantendo salvaguardas centrais, enquanto a Anthropic promete contestar judicialmente as medidas do governo. A Al Jazeera reporta o anúncio no dia 28, e veículos como o Washington Post destacam a escalada regulatória contra a Anthropic.

Essa sequência coloca empresas diante de decisões com implicações técnicas e jurídicas. O que parecia um debate de políticas internas virou requisito contratual, com sanções administrativas e prazos de transição para fornecedores e integradores.

Como o acordo da OpenAI pode funcionar na prática

Modelos em redes classificadas exigem uma arquitetura de contenção, com segmentação física ou lógica, controle de fluxo de dados e auditoria detalhada. Altman descreveu um safety stack, um conjunto de camadas técnicas e procedimentais entre o modelo e o uso de missão. Na prática, isso costuma incluir:

  • Filtragem e roteamento de prompts com classificação de risco, usando detectores de políticas e fine‑tuning supervisionado focado em alvos governamentais.
  • Ferramentas de red teaming interno com foco em cenários de uso indevido, e circuit breakers para tarefas com potencial letal, garantindo intervenção humana obrigatória.
  • Logs assinados e selados, segregação de chaves e trilhas de auditoria para investigações e conformidade.
  • Isolamento de inferência com air‑gaps ou VPCs endurecidas, controle de exfiltração, e validação de cadeia de suprimento de hardware e firmware.

Segundo a Fortune, o governo estaria disposto a aceitar o safety stack da OpenAI como camada de controle e a não forçar a derrubada de recusas técnicas do modelo quando estas estiverem alinhadas às salvaguardas acordadas. Essa cláusula é central, porque preserva a aplicabilidade das políticas de uso mesmo em contexto militar, removendo a exigência de acesso irrestrito ao núcleo do modelo.

Já a Al Jazeera reportou que o anúncio do dia 28 confirma princípios similares, reforçando a exclusão de vigilância doméstica em massa e de sistemas de armas autônomas sem humano na tomada de decisão. Isso materializa as linhas vermelhas que se tornaram o pivô de toda a disputa.

Por que a Anthropic disse não, e o que muda com a designação de risco

A Anthropic defendeu que não poderia, em boa consciência, ceder controle total de uso, citando riscos de vigilância de cidadãos e de emprego em armas autônomas. Reportagens da AP, Engadget e CBS convergem no ponto essencial, o DoD exigiu acesso sem restrições e ameaçou a empresa com medidas extraordinárias, incluindo invocar o Defense Production Act.

A seguir, vieram medidas governamentais mais duras, a ordem de paralisação de uso federal e a rotulagem como risco de cadeia de suprimentos. Em termos práticos, isso bloqueia órgãos e contratadas de integrarem produtos da Anthropic, impondo prazos de transição e sanções por descumprimento. O Washington Post e o The Guardian destacam o ineditismo e o impacto imediato, enquanto o The Verge detalha o enquadramento como risco de cadeia em defesa.

Para integradores, o efeito é direto. Contratos que previam Claude em pipelines de inteligência, análise ou suporte a decisão precisam de substitutos certificados. Migrações técnicas em ambientes classificados não são triviais. Há revalidação de segurança, recertificação de workflows e, muitas vezes, reconstrução de conectores e controles de rede.

O papel de Altman e o convite à desescalada

Enquanto o governo elevava o tom, Sam Altman sinalizou apoio a linhas vermelhas semelhantes às da Anthropic e defendeu a desescalada, argumentando que o setor precisa de um consenso claro e que nenhuma empresa privada deve se sobrepor ao governo eleito, embora deva influenciar a formulação de políticas. Relatos jornalísticos citam memorandos internos com esse posicionamento e o reconhecimento de que vigilância estrangeira faz parte da função estatal, mas vigilância doméstica em massa não.

Esse movimento equilibra estratégia e princípios. Ao mesmo tempo em que busca um acordo vantajoso para a OpenAI, a mensagem estabelece um padrão de salvaguardas que, se aceito pelo DoD, tende a se tornar referência para outros fornecedores. Isso reduz incertezas e protege equipes de engenharia e compliance de pressões ad hoc por exceções de alto risco.

Implicações para fornecedores, nuvem e o ecossistema de defesa

  • Contratos e certificações. A disputa expôs que termos de uso, políticas de segurança e anexos técnicos não são apêndices, são cláusulas operacionais críticas. Sem fallback de governança, o risco jurídico e reputacional explode quando a missão pede algo fora das políticas.
  • Convergência de padrões. Se o acordo com a OpenAI consolidar salvaguardas contra vigilância doméstica e armas autônomas, fornecedores de nuvem, MLOps e segurança tenderão a harmonizar controles e a oferecer pacotes de compliance prontos para auditoria de defesa.
  • Efeito substituição. Com a Anthropic rotulada como risco, órgãos e contratadas migram para alternativas já mencionadas em reportagens, como OpenAI, Google e xAI, que também mantinham acordos ou tratativas com o DoD em patamares de 200 milhões de dólares. Esse realinhamento redistribui participação em projetos críticos e acelera due diligence técnica.
  • Cadeia de suprimento. A designação de risco não atinge apenas modelos, mas toda a infraestrutura de suporte. Integradores que usavam SDKs, embeddings ou ferramentas da Anthropic terão de demonstrar erradicação completa desses componentes em ambientes sensíveis.

![Logotipo da Anthropic, IA rival no centro do impasse]

Riscos, compliance e salvaguardas que importam agora

Aplicações de IA em missão exigem uma matriz de risco que una técnica, legal e operacional. A partir dos fatos, três frentes precisam de atenção imediata:

  1. Delimitação contratual de uso. Sem cláusulas explícitas de exclusão, o operador pode interpretar qualquer tarefa “legal” como permitida, criando atrito com princípios corporativos e políticas internas. A negociação da OpenAI com o DoD, tal como relatada, incluiu o reconhecimento contratual das recusas do modelo quando alinhadas às salvaguardas. Isso reduz o espaço para ordens contrárias às linhas vermelhas.

  2. Segurança operacional de ambientes classificados. Operar em redes classificadas supõe controles como TEE, segmentação, whitelisting de bibliotecas e telemetria assinada. Não basta prometer safety por política, é preciso provar enforcement técnico, com auditorias independentes e testes de penetração específicos para LLMs.

  3. Responsabilidade e cadeia de decisão humana. O fio condutor das reportagens é a manutenção do humano na tomada de decisão quando há potencial uso da força. Isso implica regras de engajamento claras, trilhas de revisão e documentação de prompts e outputs associados a decisões críticas.

Exemplos práticos para equipes técnicas e de negócio

  • Arquitetura. Separe o plano de controle do modelo do plano de dados de missão. Use gateways de policy para bloquear prompts e outputs que atravessem limites definidos, e registre toda exceção com aprovação de autoridade competente.
  • Controles de uso. Aplique classificadores de conteúdo sensível antes da inferência, com taxonomias de risco que incluam vigilância doméstica, letalidade, alvo protegido e due process. Negue por padrão e justifique cada override.
  • Auditoria e forense. Mantenha trilhas WORM de prompts, weights, versionamento e resultados, com selos de tempo e chaves gerenciadas sob HSM. Em missões classificadas, trate logs como material sensível sujeito a cadeia de custódia.
  • Governança viva. Revise a cada trimestre o catálogo de tarefas autorizadas e as proibições. Acople feedback de red team, incidentes e lições aprendidas de exercícios de mesa com operadores de missão.

O que observar nas próximas semanas

  • Formalização contratual. A confirmação oficial dos termos de uso aceitos pelo DoD será determinante. Detalhes como o escopo das proibições, os mecanismos de auditoria e a liberdade da OpenAI para recusar tarefas definirão o padrão de mercado.
  • Contencioso com a Anthropic. A empresa já sinalizou contestação judicial. Decisões liminares podem modular o alcance do banimento e os prazos de transição, com impacto direto em cronogramas de substituição tecnológica.
  • Adesão de outros fornecedores. O apetite de Google, xAI e integradores para replicar as salvaguardas ou aceitar exigências mais amplas mostrará se haverá convergência de padrões ou segmentação por “grau de permissividade”.

Conclusão

O avanço do acordo da OpenAI com o Pentágono para IA classificada, com salvaguardas explícitas, aponta um caminho de meio termo entre missão e princípios. Se o DoD aceitar recusas técnicas alinhadas a políticas de uso e mantiver a exclusão de vigilância doméstica e a exigência de humano na tomada de decisão letal, o setor ganha um template de governança exportável para outros domínios sensíveis.

A disputa com a Anthropic, porém, revelou a fragilidade de acordos quando a política muda de fase. Para quem lidera tecnologia e compliance, a mensagem é simples. Trate políticas de uso como cláusulas operacionais, invista em safety stacks auditáveis e desenhe arquiteturas que imponham salvaguardas por padrão. Quando a conversa esquentar, princípios claros, controles técnicos e trilhas de auditoria robustas serão o que separam negociação saudável de ruptura contratual.

Tags

OpenAIPentágonoAnthropicSegurança da InformaçãoCompliance