OpenAI busca acordo no Pentágono, IA classificada, Anthropic
Acordo de IA classificada com o Pentágono avança enquanto a Anthropic enfrenta proibição federal. Entenda fatos, riscos, salvaguardas e impactos práticos para times de tecnologia e compliance.
Danilo Gato
Autor
Introdução
OpenAI acordo com o Pentágono para IA classificada deixou de ser hipótese e entrou no centro do noticiário, em meio a um impasse público com a Anthropic. Em 27 e 28 de fevereiro de 2026, fontes reportaram que a OpenAI negocia, e agora anuncia, o uso de seus modelos em redes classificadas do Departamento de Defesa, com salvaguardas explícitas contra vigilância doméstica e armas autônomas. Ao mesmo tempo, a Casa Branca e o Pentágono escalaram a disputa com a Anthropic, culminando em ordens para que agências federais deixem de usar sua tecnologia e na rotulagem da empresa como risco de cadeia de suprimentos.
A relevância do tema é direta para equipes de tecnologia, segurança e compliance. O que está em jogo não é só um contrato, é o modelo de governança de IA aplicada a missões sensíveis. O resultado definirá linhas vermelhas sobre o que é aceitável em defesa, quem decide esses limites e como as salvaguardas técnicas e contratuais serão auditadas.
O que está em jogo: IA classificada, controle de uso e linhas vermelhas
A disputa gira em dois eixos práticos. Primeiro, a integração de modelos de IA em redes classificadas, com todos os requisitos de isolamento, logging e cadeia de custódia. Segundo, o controle sobre como a IA pode ser usada em operações sensíveis, incluindo a proibição de vigilância em massa de cidadãos e o veto a armas que disparem sem um humano na tomada de decisão. A OpenAI sinalizou que um acordo é possível mantendo essas linhas vermelhas, enquanto a Anthropic recusou ceder controle irrestrito, enfatizando riscos de confiabilidade e ética.
Esse não é um debate abstrato. Documentos e reportagens indicam que a Anthropic mantinha um contrato de 200 milhões de dólares com o DoD, e que, em semanas recentes, o governo exigiu acesso mais amplo aos seus modelos Claude, inclusive para usos que a empresa considera inaceitáveis. O ponto de atrito foi a autoridade final sobre quando e como remover guarda‑corpos.
![Vista aérea do Pentágono em 15 de maio de 2023]
Linha do tempo dos fatos recentes
- 24 a 27 de fevereiro de 2026. O secretário de Defesa Pete Hegseth impõe um ultimato à Anthropic, exigindo acesso militar irrestrito aos seus modelos, sob pena de cancelamento contratual e classificação da empresa como risco de cadeia de suprimentos. A Associated Press e a CBS noticiam o prazo e as ameaças formais.
- 27 de fevereiro de 2026. A Casa Branca ordena que agências federais parem imediatamente de usar a tecnologia da Anthropic, e o Pentágono avança na designação de risco de cadeia de suprimentos. Relatos de veículos como The Guardian, The Verge e a NBC detalham o efeito cascata para órgãos e contratadas.
- 27 de fevereiro de 2026. Em paralelo, Sam Altman informa funcionários que a OpenAI negocia um acordo com o governo para operar em ambientes classificados, com um safety stack próprio e manutenção de linhas vermelhas contra vigilância doméstica e armas autônomas. Fortune publica o conteúdo essencial do all‑hands.
- 27 a 28 de fevereiro de 2026. Coberturas adicionais indicam que a OpenAI buscou, e anunciou, um acerto para uso em rede classificada, mantendo salvaguardas centrais, enquanto a Anthropic promete contestar judicialmente as medidas do governo. A Al Jazeera reporta o anúncio no dia 28, e veículos como o Washington Post destacam a escalada regulatória contra a Anthropic.
Essa sequência coloca empresas diante de decisões com implicações técnicas e jurídicas. O que parecia um debate de políticas internas virou requisito contratual, com sanções administrativas e prazos de transição para fornecedores e integradores.
Como o acordo da OpenAI pode funcionar na prática
Modelos em redes classificadas exigem uma arquitetura de contenção, com segmentação física ou lógica, controle de fluxo de dados e auditoria detalhada. Altman descreveu um safety stack, um conjunto de camadas técnicas e procedimentais entre o modelo e o uso de missão. Na prática, isso costuma incluir:
- Filtragem e roteamento de prompts com classificação de risco, usando detectores de políticas e fine‑tuning supervisionado focado em alvos governamentais.
- Ferramentas de red teaming interno com foco em cenários de uso indevido, e circuit breakers para tarefas com potencial letal, garantindo intervenção humana obrigatória.
- Logs assinados e selados, segregação de chaves e trilhas de auditoria para investigações e conformidade.
- Isolamento de inferência com air‑gaps ou VPCs endurecidas, controle de exfiltração, e validação de cadeia de suprimento de hardware e firmware.
Segundo a Fortune, o governo estaria disposto a aceitar o safety stack da OpenAI como camada de controle e a não forçar a derrubada de recusas técnicas do modelo quando estas estiverem alinhadas às salvaguardas acordadas. Essa cláusula é central, porque preserva a aplicabilidade das políticas de uso mesmo em contexto militar, removendo a exigência de acesso irrestrito ao núcleo do modelo.
Já a Al Jazeera reportou que o anúncio do dia 28 confirma princípios similares, reforçando a exclusão de vigilância doméstica em massa e de sistemas de armas autônomas sem humano na tomada de decisão. Isso materializa as linhas vermelhas que se tornaram o pivô de toda a disputa.
Por que a Anthropic disse não, e o que muda com a designação de risco
A Anthropic defendeu que não poderia, em boa consciência, ceder controle total de uso, citando riscos de vigilância de cidadãos e de emprego em armas autônomas. Reportagens da AP, Engadget e CBS convergem no ponto essencial, o DoD exigiu acesso sem restrições e ameaçou a empresa com medidas extraordinárias, incluindo invocar o Defense Production Act.
A seguir, vieram medidas governamentais mais duras, a ordem de paralisação de uso federal e a rotulagem como risco de cadeia de suprimentos. Em termos práticos, isso bloqueia órgãos e contratadas de integrarem produtos da Anthropic, impondo prazos de transição e sanções por descumprimento. O Washington Post e o The Guardian destacam o ineditismo e o impacto imediato, enquanto o The Verge detalha o enquadramento como risco de cadeia em defesa.
Para integradores, o efeito é direto. Contratos que previam Claude em pipelines de inteligência, análise ou suporte a decisão precisam de substitutos certificados. Migrações técnicas em ambientes classificados não são triviais. Há revalidação de segurança, recertificação de workflows e, muitas vezes, reconstrução de conectores e controles de rede.
O papel de Altman e o convite à desescalada
Enquanto o governo elevava o tom, Sam Altman sinalizou apoio a linhas vermelhas semelhantes às da Anthropic e defendeu a desescalada, argumentando que o setor precisa de um consenso claro e que nenhuma empresa privada deve se sobrepor ao governo eleito, embora deva influenciar a formulação de políticas. Relatos jornalísticos citam memorandos internos com esse posicionamento e o reconhecimento de que vigilância estrangeira faz parte da função estatal, mas vigilância doméstica em massa não.
Esse movimento equilibra estratégia e princípios. Ao mesmo tempo em que busca um acordo vantajoso para a OpenAI, a mensagem estabelece um padrão de salvaguardas que, se aceito pelo DoD, tende a se tornar referência para outros fornecedores. Isso reduz incertezas e protege equipes de engenharia e compliance de pressões ad hoc por exceções de alto risco.
Implicações para fornecedores, nuvem e o ecossistema de defesa
- Contratos e certificações. A disputa expôs que termos de uso, políticas de segurança e anexos técnicos não são apêndices, são cláusulas operacionais críticas. Sem fallback de governança, o risco jurídico e reputacional explode quando a missão pede algo fora das políticas.
- Convergência de padrões. Se o acordo com a OpenAI consolidar salvaguardas contra vigilância doméstica e armas autônomas, fornecedores de nuvem, MLOps e segurança tenderão a harmonizar controles e a oferecer pacotes de compliance prontos para auditoria de defesa.
- Efeito substituição. Com a Anthropic rotulada como risco, órgãos e contratadas migram para alternativas já mencionadas em reportagens, como OpenAI, Google e xAI, que também mantinham acordos ou tratativas com o DoD em patamares de 200 milhões de dólares. Esse realinhamento redistribui participação em projetos críticos e acelera due diligence técnica.
- Cadeia de suprimento. A designação de risco não atinge apenas modelos, mas toda a infraestrutura de suporte. Integradores que usavam SDKs, embeddings ou ferramentas da Anthropic terão de demonstrar erradicação completa desses componentes em ambientes sensíveis.
![Logotipo da Anthropic, IA rival no centro do impasse]
Riscos, compliance e salvaguardas que importam agora
Aplicações de IA em missão exigem uma matriz de risco que una técnica, legal e operacional. A partir dos fatos, três frentes precisam de atenção imediata:
-
Delimitação contratual de uso. Sem cláusulas explícitas de exclusão, o operador pode interpretar qualquer tarefa “legal” como permitida, criando atrito com princípios corporativos e políticas internas. A negociação da OpenAI com o DoD, tal como relatada, incluiu o reconhecimento contratual das recusas do modelo quando alinhadas às salvaguardas. Isso reduz o espaço para ordens contrárias às linhas vermelhas.
-
Segurança operacional de ambientes classificados. Operar em redes classificadas supõe controles como TEE, segmentação, whitelisting de bibliotecas e telemetria assinada. Não basta prometer safety por política, é preciso provar enforcement técnico, com auditorias independentes e testes de penetração específicos para LLMs.
-
Responsabilidade e cadeia de decisão humana. O fio condutor das reportagens é a manutenção do humano na tomada de decisão quando há potencial uso da força. Isso implica regras de engajamento claras, trilhas de revisão e documentação de prompts e outputs associados a decisões críticas.
Exemplos práticos para equipes técnicas e de negócio
- Arquitetura. Separe o plano de controle do modelo do plano de dados de missão. Use gateways de policy para bloquear prompts e outputs que atravessem limites definidos, e registre toda exceção com aprovação de autoridade competente.
- Controles de uso. Aplique classificadores de conteúdo sensível antes da inferência, com taxonomias de risco que incluam vigilância doméstica, letalidade, alvo protegido e due process. Negue por padrão e justifique cada override.
- Auditoria e forense. Mantenha trilhas WORM de prompts, weights, versionamento e resultados, com selos de tempo e chaves gerenciadas sob HSM. Em missões classificadas, trate logs como material sensível sujeito a cadeia de custódia.
- Governança viva. Revise a cada trimestre o catálogo de tarefas autorizadas e as proibições. Acople feedback de red team, incidentes e lições aprendidas de exercícios de mesa com operadores de missão.
O que observar nas próximas semanas
- Formalização contratual. A confirmação oficial dos termos de uso aceitos pelo DoD será determinante. Detalhes como o escopo das proibições, os mecanismos de auditoria e a liberdade da OpenAI para recusar tarefas definirão o padrão de mercado.
- Contencioso com a Anthropic. A empresa já sinalizou contestação judicial. Decisões liminares podem modular o alcance do banimento e os prazos de transição, com impacto direto em cronogramas de substituição tecnológica.
- Adesão de outros fornecedores. O apetite de Google, xAI e integradores para replicar as salvaguardas ou aceitar exigências mais amplas mostrará se haverá convergência de padrões ou segmentação por “grau de permissividade”.
Conclusão
O avanço do acordo da OpenAI com o Pentágono para IA classificada, com salvaguardas explícitas, aponta um caminho de meio termo entre missão e princípios. Se o DoD aceitar recusas técnicas alinhadas a políticas de uso e mantiver a exclusão de vigilância doméstica e a exigência de humano na tomada de decisão letal, o setor ganha um template de governança exportável para outros domínios sensíveis.
A disputa com a Anthropic, porém, revelou a fragilidade de acordos quando a política muda de fase. Para quem lidera tecnologia e compliance, a mensagem é simples. Trate políticas de uso como cláusulas operacionais, invista em safety stacks auditáveis e desenhe arquiteturas que imponham salvaguardas por padrão. Quando a conversa esquentar, princípios claros, controles técnicos e trilhas de auditoria robustas serão o que separam negociação saudável de ruptura contratual.