Fachada do Departamento do Tesouro dos Estados Unidos em Washington, D.C.
Tecnologia

Bessent: Tesouro corta Anthropic e Claude, ordem de Trump

O Tesouro dos EUA vai encerrar o uso de produtos da Anthropic, incluindo a plataforma Claude, em alinhamento à ordem presidencial que determinou a suspensão imediata da tecnologia na Administração Pública, com fase de transição de seis meses para o setor de defesa.

Danilo Gato

Danilo Gato

Autor

3 de março de 2026
10 min de leitura

Introdução

O governo dos Estados Unidos determinou que todas as agências federais cessem imediatamente o uso da tecnologia da Anthropic, incluindo a plataforma Claude, com uma janela de seis meses para desativação completa em órgãos de defesa. A palavra-chave aqui é Anthropic e o impacto é direto na espinha dorsal de projetos de IA em órgãos civis e militares. A ordem veio a público em 27 de fevereiro de 2026 e foi confirmada por veículos como CBS News, além de comunicados de órgãos como a GSA, que já retirou a Anthropic de suas vitrines e catálogos federais.

A decisão ocorre após semanas de atrito entre o Pentágono e a Anthropic sobre duas linhas vermelhas impostas pela empresa, que recusou permitir o uso do Claude para vigilância doméstica em massa e para armas totalmente autônomas, mesmo quando o Departamento de Defesa insistiu em acesso para “todos os fins legais”. Esse impasse, detalhado por Fortune, AP via Defense News e The Guardian, escalou até o ponto de o Secretário de Defesa anunciar intenção de classificar a Anthropic como “risco de cadeia de suprimentos” à segurança nacional.

O que a ordem significa na prática

A diretriz presidencial exige que agências interrompam o uso dos produtos da Anthropic e executem uma transição ordenada, especialmente onde há dependência do Claude em ambientes sensíveis e redes classificadas. A CBS News e a Business Standard destacaram que o período de seis meses foi estabelecido para órgãos como o Departamento de Defesa, permitindo substituição técnica progressiva. Isso implica planos de contingência, auditoria de integrações e revalidação de segurança cibernética para qualquer modelo substituto.

A GSA, que opera o principal instrumento de compras do governo e o hub USAi.gov para avaliação de modelos generativos, anunciou a remoção imediata da Anthropic de seus catálogos. Na prática, isso bloqueia novas aquisições e suspende acessos previamente aprovados, acelerando a migração. Para equipes de TI federais, a medida exige atualizar listas de materiais, redefinir políticas de roteamento de prompts e revisar contratos de nuvem e marketplace.

Por que o Claude virou peça central da disputa

Relatos recentes indicam que o Claude era, até então, um dos poucos modelos autorizados a operar em redes classificadas do governo, o que explica o impacto da medida. Fontes como a AP e o The Guardian registraram que a Anthropic manteve posicionamento público a favor da segurança nacional, porém com ressalvas nas duas aplicações citadas. A consequência é dupla, técnica e política, porque substituir um modelo que já roda em contexto sigiloso envolve certificações, hardening, controles de exfiltração e reavaliações de supply chain.

A controvérsia ganhou contornos mais amplos após reportagens sobre operações reais em que ferramentas de IA, incluindo o Claude, teriam sido usadas em missões sensíveis. O Washington Post descreveu a ruptura entre o Pentágono e a Anthropic na esteira de uma operação contra Nicolás Maduro, mencionando a tensão crescente sobre governança de uso. Mesmo que detalhes específicos permaneçam disputados, o ponto é que a implantação do Claude em cenários de alto risco aumentou o escrutínio sobre restrições contratuais.

Efeitos imediatos para órgãos civis e o Tesouro

Para o setor civil, a remoção da Anthropic do USAi.gov desativa um caminho simples de experimentação e compra. O Departamento do Tesouro, responsável por sistemas de pagamentos e supervisão financeira, precisará revisar fluxos que incorporavam o Claude em análise documental, compliance e apoio a políticas públicas. A diretriz não deixa margem para exceções fora do cronograma estabelecido, e a orientação da GSA sinaliza que a conformidade será auditada junto às aquisições federais vigentes.

A confirmação de que a ordem se aplica a todas as agências, com fase de transição especificamente voltada à defesa, veio de comunicados públicos e cobertura jornalística nacional. Dado o papel do Tesouro em segurança financeira e compliance, a troca de fornecedor de IA implica revisar controles de privacidade, trilhas de auditoria e modelos de classificação de risco. Essa substituição deve envolver tanto avaliação de performance em linguagem natural quanto validação de riscos operacionais, incluindo a gestão de alucinações e recuperação adversarial em contextos regulados.

![Sede do Departamento do Tesouro dos EUA]

Impacto no mercado de IA e no ecossistema de fornecedores

A medida do governo pressiona diretamente o roadmap de empresas que buscam o mercado público. A Business Standard e a Fortune relataram estimativas de contratos potencialmente afetados na casa de centenas de milhões de dólares para a Anthropic, além de restrições de cadeia de suprimentos se a designação de risco for formalizada. Esse cenário abre espaço para concorrentes já posicionados, que aceitaram termos de “uso para todos os fins legais” em contextos de defesa.

A resposta institucional foi rápida. Segundo a GSA, a Anthropic foi retirada do USAi.gov e dos contratos da Multiple Award Schedule. Isso cria oportunidade tática para fornecedores que já operam em ambientes classificados, que podem acelerar certificações, oferecer playbooks de migração e pacotes de compatibilidade. Para CTOs setoriais, vale mapear dependências de aplicações, conjuntos de dados e pipelines MLOps que integravam o Claude, priorizando workloads com maior exposição a riscos de missão.

Segurança, governança e as duas linhas vermelhas

A narrativa técnica da Anthropic é clara e foi reafirmada publicamente: não apoiar vigilância doméstica em massa de cidadãos americanos e não permitir armas totalmente autônomas. A empresa argumenta que, no estado atual da tecnologia, retirar salvaguardas nessas frentes seria imprudente e perigoso. Documentos e declarações destacam que, fora dessas duas exceções, a Anthropic estava disposta a continuar servindo o governo. Esses pontos aparecem nas matérias do The Guardian, da AP via Defense News e na nota oficial da própria Anthropic.

Do lado governamental, a posição pública enfatiza que o uso seria restringido a “fins legais”, mas com relutância em firmar vetos explícitos às duas categorias. Para quem opera governança de IA, a diferença entre princípios e redação contratual é decisiva. Sem cláusulas claras e auditáveis, a convergência entre política de uso e execução operacional fica vulnerável a mudanças interpretativas e pressões táticas durante crises.

Desafios técnicos da migração e riscos de continuidade

Substituir um modelo em ambientes classificados não é simples como trocar uma API. Envolve replicar controles de acesso, logs detalhados, segmentação de dados, rotinas de red-teaming, RAG seguro e garantias de não vazamento entre contextos. Também requer reflexão sobre fine-tuning, prompt management e ferramentas agentes que orquestram tarefas com autonomia parcial. Relatos de imprensa destacam que essa transição pode atrasar cronogramas críticos, por meses, até que rivais atinjam paridade de usabilidade e robustez com o Claude.

Em operações de missão, qualquer degradação de qualidade cognitiva, explicabilidade ou estabilidade de ferramenta pode afetar detecção de anomalias, análise de inteligência e resposta a incidentes. Equipes devem priorizar testes A-B controlados, sandboxes espelhados e validação por casos de uso, não apenas por benchmarks sintéticos. Em paralelo, convém reforçar camadas de segurança comportamental e taxonomias de risco para reduzir superfície de erro em contextos críticos.

![Pentágono, vista aérea]

Implicações para políticas públicas e compliance

A mudança força uma revisão de políticas internas de dados. Para órgãos como o Tesouro, que tratam informação financeira sensível, a reonboarding de fornecedores de IA requer revalidação de políticas de retenção, ofuscação e controle de acesso, além de análise de impactos sobre a Lei de Privacidade e padrões NIST relevantes. Embora algumas mudanças de política de dados da Anthropic em 2025 tenham afetado principalmente clientes individuais e não usuários governamentais, o histórico recente reforça a importância de SLAs contratuais explícitos sobre retenção e uso de dados.

Nesse cenário, equipes jurídicas e de conformidade devem mapear cláusulas de governança de modelo, direitos de auditoria, caminhos de certificação e práticas de incident response do novo fornecedor. Critérios como isolamento de workloads, suporte a air-gapped deployments, atestados de supply chain e telemetria auditável tornam-se diferenciais objetivos.

Quem ganha e quem perde no curto prazo

No curto prazo, rivais que já aceitam o escopo de “todos os fins legais” em defesa devem capturar demanda, enquanto a Anthropic tende a concentrar esforços no setor privado e em litígios sobre eventuais designações de risco. Relatos de mercado e cobertura jornalística sugerem que fornecedores concorrentes receberam rapidamente sinal verde para avançar em redes classificadas, preenchendo o vácuo operacional deixado pelo Claude.

Para a Administração Pública, a principal perda é de tempo e de produtividade, até que equipes retomem a cadência com novas ferramentas. Para a Anthropic, o custo é reputacional e financeiro, além do desafio de sustentar a tese de segurança responsável sem perder atratividade para clientes corporativos que valorizam guardrails fortes.

Como mitigar riscos na transição, passo a passo

  • Inventariar todos os fluxos que dependem de Claude, do chat corporativo a agentes de código, com ênfase em integrações via USAi.gov e marketplaces federais.
  • Criar matrizes de substituição por caso de uso, priorizando contextos classificados e atividades com SLOs de missão críticos.
  • Revalidar política de dados, inclusive telemetria, retenção e escopos de treinamento, exigindo cláusulas claras e testes de verificação.
  • Rodar pilotos paralelos em sandboxes isolados e comparar métricas comportamentais, não só benchmarks sintéticos, com ênfase em robustez, latência sob carga e taxa de intervenção humana.
  • Fortalecer camadas de segurança comportamental, incluindo filtros de uso sensível e controles de ferramenta para evitar escalada acidental de privilégios por agentes.
  • Estabelecer planos de fallback e runbooks de contingência para operações críticas, com métricas de saída e critérios de go-live explicitamente definidos.

Reflexões e insights

O episódio expõe um dilema previsível na adoção de IA pelo Estado. A velocidade com que se quer levar modelos ao teatro operacional colide com salvaguardas mínimas em áreas como armas autônomas e vigilância em massa. Quando a divergência sai da esfera técnica e entra na arena política, quem fica no meio é a equipe que precisa manter serviços rodando com segurança. Coberturas de veículos como a CBS News e a AP mostram que a lógica da decisão foi menos sobre capacidade do modelo e mais sobre poder de governança.

Para líderes públicos e privados, a lição é simples. Definir limites contratuais objetivos, verificáveis e com mecanismos de auditoria reduz assimetria de expectativas e evita que discussões sobre “fins legais” virem brechas para usos que, tecnicamente, os modelos ainda não suportam com segurança. Do outro lado, fornecedores que querem servir missões críticas precisarão equilibrar princípios com exigências do cliente governamental, sem sacrificar controles que mitiguem riscos sistêmicos.

Conclusão

A ordem para cessar o uso da Anthropic, incluindo o Claude, redefine o mapa de IA do governo federal. O Tesouro e demais órgãos civis devem se preparar para meses de ajuste, recriando bases de confiança com novos parceiros e, ao mesmo tempo, mantendo a continuidade de serviços e a segurança dos dados. O papel da GSA como orquestradora de compras mostra que o movimento é coordenado e deverá ser fiscalizado com rigor.

No plano estratégico, a disputa trouxe à superfície o verdadeiro centro da conversa: quem controla o risco quando algoritmos entram em missão. A resposta exigirá menos slogans e mais contratos claros, auditoria independente, arquitetura segura e métricas que penalizem o atalho fácil. Nesse caminho, a maturidade institucional vai importar tanto quanto a escolha do próximo modelo de IA.

Tags

IAsetor públicosegurançapolíticas públicas