A Casa Branca em Washington, D.C., com gramado e fonte em primeiro plano
Política de IA

Casa Branca mira a Anthropic com ordem para remover o Claude

A administração Trump estuda uma ordem executiva para retirar o Claude de sistemas federais, intensificando o embate jurídico e político com a Anthropic no coração da política de IA dos EUA.

Danilo Gato

Danilo Gato

Autor

16 de março de 2026
9 min de leitura

Introdução

A palavra chave deste debate, ordem executiva contra a Anthropic, deixou de ser rumor de bastidor para pauta real em Washington. Segundo a Axios, a Casa Branca prepara um texto para orientar órgãos federais a retirar o Claude dos seus fluxos de trabalho, formalizando um movimento que já começou em departamentos como o Tesouro. A medida ampliaria o embate com a empresa, que acionou a Justiça após receber do Pentágono o rótulo de risco de cadeia de suprimentos.

O contexto é inédito no setor, porque atinge diretamente um fornecedor americano de IA e nasce de um choque entre salvaguardas de uso da tecnologia, segurança nacional e as regras de compras públicas. Nos últimos dias, além do anúncio de offboarding em órgãos civis, o Departamento de Defesa declarou a Anthropic um risco efetivo imediato, enquanto o presidente Trump já havia orientado o governo a evitar o que chamou de modelos de IA woke.

O que está acontecendo, em fatos

A Axios reportou em 9 de março de 2026 que a Casa Branca trabalha numa ordem executiva para “arrancar” a IA da Anthropic das operações federais, com fonte indicando publicação possível ainda nesta semana. O texto consolidaria um esforço que já vinha ocorrendo, incluindo o offboarding no Tesouro. A Casa Branca, por sua vez, afirmou que qualquer anúncio viria diretamente do presidente, tratando discussões externas como especulação.

O fio condutor remonta a 27 de fevereiro de 2026, quando Trump publicou um direcionamento para que todas as agências federais parassem de usar tecnologia da Anthropic, seguido pela decisão do Pentágono de classificar a empresa como risco de cadeia de suprimentos. No começo de março, o Tesouro confirmou que encerraria todo uso dos produtos da Anthropic, incluindo o Claude, e a mudança começou a se espalhar para o Departamento de Estado e outras entidades.

Além do eixo Executivo, o litígio ganhou força. Em 9 de março, a Anthropic entrou com ação contra o Departamento de Defesa, argumentando que o rótulo de risco extrapola autoridade legal e fere a Primeira Emenda. A cobertura de veículos como AP, Forbes, TechCrunch e Axios destaca que a designação é rara, tradicionalmente associada a fornecedores estrangeiros, e que a empresa sustenta ter sido punida por posições de segurança de IA e salvaguardas contratuais.

![A Casa Branca em Washington, símbolo da decisão federal]

Como chegamos até aqui, do “woke AI” às salvaguardas do Claude

Em julho de 2025, o governo Trump assinou ordens executivas com um plano amplo de IA, pregando a retirada de modelos rotulados como woke do governo e priorizando modelos de busca da verdade. Esse enquadramento político reapareceu no embate com a Anthropic, que manteve guardrails para vetar usos como armas autônomas sem humano no loop e vigilância em massa. Na virada para março de 2026, a Casa Branca reforçou a linha, e o Pentágono efetivou a designação.

Na prática, a discussão gira em torno de limites de uso impostos por fornecedores privados quando o contratante é o Estado. A posição pública do Pentágono é que restrições assim podem comprometer operações e colocar vidas em risco, enquanto a Anthropic alega que definir salvaguardas é exercício legítimo de sua visão de segurança e de sua liberdade de expressão. Esse conflito, que já havia aflorado em contratos de 2025 e 2026, agora será testado em tribunais federais.

Impacto imediato no governo, do Tesouro ao Departamento de Estado

Os efeitos já aparecem na infraestrutura de IA do governo. O Tesouro anunciou o desligamento do Claude, e o Departamento de Estado migrou o StateChat, seu chatbot interno, do Claude Sonnet 4.5 para GPT 4.1. A cobertura da Reuters e de publicações especializadas mostra um movimento coordenado de substituição por alternativas como OpenAI e Gemini em diferentes órgãos. Para fornecedores e integradores, isso significa revisão de contratos, requisitos de conformidade e auditorias técnicas.

Embora a Axios tenha apurado que a ordem executiva poderia sair rapidamente, há pontos processuais sensíveis. Diferentemente de casos envolvendo empresas estrangeiras, não existe muito precedente para nomear uma empresa americana específica em ordem presidencial para fins de exclusão de sistemas governamentais, algo que historicamente exigiu vias regulatórias ou legislativas, como no exemplo de Huawei e TikTok, que envolveram combinação de EO e atos do Congresso ou decisões de agências.

O que está em jogo para a Anthropic e para os rivais

A curto prazo, a Anthropic lida com perda de contratos, risco reputacional e necessidade de sustentar a tese jurídica de que a designação foi retaliação por discurso protegido e salvaguardas técnicas. O suporte público de líderes de indústria e ex-militares, além do noticiário de que gigantes como Microsoft e outros atores apoiam a contestação, sugere que o caso transcende uma disputa bilateral e pode virar referência sobre os limites do poder de compras do Estado em IA.

Para rivais, a reconfiguração abre espaço imediato no governo. A Reuters relatou trocas por modelos da OpenAI, enquanto parte da imprensa especializada mencionou orientações internas no Senado e em órgãos civis para priorizar alternativas como ChatGPT, Gemini e Copilot. Ao mesmo tempo, a visibilidade das salvaguardas do Claude pressiona concorrentes a explicitar políticas de uso aceitável para cenários militares e de segurança.

![Detalhe técnico que simboliza a infraestrutura de IA e hardware]

Ilustração do artigo

O precedente jurídico e o paralelo com medidas anteriores

Há paralelos com EOs e ações de 2019 a 2020 sobre a cadeia de TICs, como a ordem de 2019 sobre infraestrutura e as respostas regulatórias a Huawei e ZTE, além do EO 13942 sobre o TikTok. A diferença, destacada por analistas, é que os alvos eram entidades estrangeiras vistas como ameaças dentro de uma moldura de segurança definida por lei e por agências independentes. Interditar uma empresa americana de IA por diretrizes de salvaguardas de uso desloca a linha do precedente.

Se a ordem executiva contra a Anthropic vier nos termos ventilados, tribunais precisarão sopesar separação de poderes, devido processo, liberdade de expressão corporativa e discricionariedade do Executivo em compras públicas. A ação da Anthropic, que pede o fim da designação e argumenta sobre excesso de autoridade e estigma indevido, força esse exame. Como observou a Axios em outra matéria, o rótulo de risco é tipicamente reservado para adversários estrangeiros, o que eleva o caráter extraordinário da medida.

Efeitos colaterais no mercado, em compliance e no ecossistema de fornecedores

Empresas que vendem ao governo devem revisar matrizes de risco de cadeia de suprimentos, cláusulas de licenciamento e uso aceitável. O alerta de escritórios especializados em contratos públicos é inequívoco, com informes detalhando que a designação do DoD já exige certificação de não uso dos modelos da Anthropic por contratados e subcontratados, algo que pode impactar pipelines, DevSecOps e até acordos de dados. Isso se soma ao efeito de rede de grandes integradores que vão adaptar ofertas ao novo mapa.

Do lado das big techs, a controvérsia incentiva anúncios e ajustes contratuais junto ao DoD. Reportagens recentes citam que a OpenAI revisou termos de um acordo com a Defesa, enquanto líderes do setor opinam sobre a disputa. Mesmo vozes céticas à posição da Anthropic reconhecem que a regra do jogo para IA aplicada à defesa está em redefinição, com graus variados de restrição por fornecedor e por missão.

Cenários possíveis, de acomodação a ruptura

Três cenários parecem mais prováveis no curto prazo. Primeiro, acomodação negociada, com ajustes de cláusulas de uso que preservem o princípio de humano no loop e limitem vigilância massiva, sem travar aplicações críticas. Segundo, judicialização prolongada que paralisa a Anthropic no governo por meses, enquanto o processo define balizas para a autoridade do Executivo. Terceiro, ruptura consolidada, com EO explícita e redesenho permanente do portfólio de IA do governo em favor de fornecedores com políticas mais flexíveis para fins militares.

Alguns sinais recentes sugerem uma transição controlada, não um corte absoluto e imediato. Cobertura da Axios em 15 de março mencionou continuidade de usos do Claude no Pentágono dentro dos termos da empresa e possibilidade de extensão além do prazo de seis meses, o que revela uma gestão pragmática de risco operacional enquanto a disputa corre na Justiça.

Aplicações práticas para líderes de tecnologia e compliance

  • Recontratar rapidamente: mapear dependências do Claude em fluxos internos, chatops, RAG e agentes, priorizando substituições por modelos aprovados para dados sensíveis. Documente equivalências de qualidade e custos de inferência. As mudanças recentes no Departamento de Estado ilustram a urgência e o caminho de migração controlada.
  • Blindar cadeia de suprimentos: atualizar cláusulas de subcontratação exigindo confirmação escrita de não uso de modelos da Anthropic em artefatos entregues ao governo, enquanto durar a designação. O informe jurídico da Mayer Brown detalha expectativas de certificação.
  • Reavaliar políticas de uso: revisar guardrails e acceptable use para alinhar com requisitos de missão. A controvérsia expõe o valor de termos claros para cenários militares, segurança pública e privacidade doméstica, aspectos que estiveram no centro do embate.
  • Planejar comunicação: preparar Q&A para conselhos, CIOs públicos e auditores, explicando impactos, cronogramas de desativação e SLAs de continuidade durante a transição. A experiência do Tesouro e de agências civis oferece referência de timing e governança.

O que acompanhar nas próximas semanas

  • Publicação, ou não, da ordem executiva. O texto final indicará se haverá nomeação explícita da empresa, métricas de conformidade, cronograma e sanções. A ausência de precedentes sólidos para citar uma empresa americana diretamente torna cada vírgula relevante.
  • Andamentos processuais do caso Anthropic vs. DoD, incluindo pedidos de liminar. Petições iniciais e documentos anexados, que já circulam na imprensa, devem revelar estratégias legais e fundamentos constitucionais.
  • Repercussões em contratos existentes e novas licitações. Sinais de que primes e integradores estão padronizando afastamento do Claude serão perceptíveis em aditivos contratuais e em RFPs atualizadas.

Conclusão

O embate entre Casa Branca e Anthropic cristaliza a tensão central da era da IA aplicada à segurança: quem define os limites de uso quando a tecnologia cruza o portão do Estado. Uma ordem executiva para remover o Claude, se vier, consolidará um precedente doméstico sem paralelos diretos, aproximando-se mais de respostas a riscos estrangeiros do que de ajustes tradicionais de compras públicas. A depender do veredito judicial, o caso pode redefinir a relação entre liberdade de expressão corporativa, segurança nacional e o poder de compras do governo.

Para líderes técnicos e jurídicos, a lição é objetiva. Estratégia de IA para o setor público precisa nascer preparada para choques regulatórios e mudanças súbitas de fornecedor, com planilhas de substituição, governança de dados e cláusulas de cadeia de suprimentos testadas em cenário de estresse. Quem agir rápido vai reduzir atritos, manter serviços críticos e ganhar fôlego para pensar no desenho de longo prazo.

Tags

Governo dos EUAContratos PúblicosSegurança NacionalModelos de IACompliance