Anthropic perto de US$ 20 bi em receita anual, em meio a disputa com o Pentágono
Crescimento explosivo empurra a Anthropic para um run rate de quase US$ 20 bilhões enquanto a empresa trava um embate público com o Pentágono sobre limites de uso de IA para vigilância e armamentos autônomos.
Danilo Gato
Autor
Introdução
Anthropic 20 bilhões de receita anual deixou de ser projeção distante e virou número de referência no noticiário. Segundo a Bloomberg, a Anthropic superou US$ 19 bilhões em run rate e se aproxima de US$ 20 bilhões, mais que dobrando o ritmo de fim de 2025, com forte tração em produtos corporativos, especialmente o Claude Code. Esse salto ocorre enquanto a empresa enfrenta um conflito público com o Pentágono sobre limites ao uso de IA, tema que influencia contratos, reputação e estratégias de produto.
O caso ganhou relevância por combinar crescimento financeiro raro com um debate sensível, a fronteira entre aplicações de IA para defesa e as salvaguardas civis. Relatos do Washington Post e de outros veículos descrevem pressões para remover restrições a vigilância doméstica e armas autônomas, prazos apertados e ameaças regulatórias, quadro que ajuda a explicar a turbulência ao redor dos grandes modelos.
Este artigo analisa o que está por trás da corrida da Anthropic rumo a US$ 20 bilhões de receita anual, como o impasse com o Pentágono afeta fornecedores e clientes, o papel do Claude Code nessa curva, e o que executivos de tecnologia podem aprender para mitigar riscos de compliance e reputação ao adotar IA generativa em escala.
Receita em aceleração, o que explica o salto para perto de US$ 20 bilhões
A Bloomberg reportou em 3 de março de 2026 que a Anthropic PBC está a caminho de gerar quase US$ 20 bilhões por ano, tendo ultrapassado US$ 19 bilhões em run rate, contra cerca de US$ 9 bilhões no fim de 2025 e algo em torno de US$ 14 bilhões semanas atrás. A matéria atribui a aceleração à adoção intensa de seus modelos e, em especial, à linha de produtos de desenvolvimento de software Claude Code. Mesmo sem números públicos detalhados por segmento, o recorte indica mix cada vez mais B2B e foco em produtividade técnica.
Relatórios independentes ajudam a contextualizar a curva. Em novembro de 2025, o TechCrunch noticiou expectativas internas de US$ 70 bilhões em 2028 e metas de ARR de US$ 20 bilhões a US$ 26 bilhões em 2026, ao lado de um ramp up expressivo de vendas via API e de penetração em suites corporativas. Em fevereiro de 2026, análises de mercado e de investidores destacaram o crescimento do Claude Code e a expansão do número de contas com alto gasto anual, sinalizando efeito de land and expand.
Também vale acompanhar as projeções e custos. O Information reportou aumento da previsão de receita de 2026 para até US$ 18 bilhões, com atraso de um ano no plano de ficar caixa positivo, refletindo investimentos pesados em treino e inferência. O dado reforça que escalar IA de fronteira exige capex e opex robustos, e que lucratividade pode vir depois de uma fase de consolidação de market share.
O conflito com o Pentágono, onde estão as linhas vermelhas
Enquanto a curva de receita acelera, a Anthropic trava uma queda de braço com o Departamento de Defesa. O Washington Post descreveu que o Pentágono impôs prazo e considerou rotular a empresa como risco de cadeia de suprimentos caso não aceitasse remover objeções a usos envolvendo armas autônomas e vigilância doméstica. Em notas públicas, a posição oficial enfatiza uso apenas para fins lícitos, mas a empresa detalhou preocupações sobre como IA pode conectar dados comerciais, de localização e de navegação para criar perfis em massa de cidadãos.
Paralelamente, a OpenAI anunciou acordo com o Pentágono e, após críticas, publicou atualização com linguagem mais explícita proibindo vigilância doméstica de pessoas dos EUA, incluindo uso de dados pessoais comercialmente adquiridos, e vedando uso por agências de inteligência como a NSA sem novo acordo. O movimento ilustra a pressão por contratos com cláusulas mais claras, assunto que repercutiu em veículos e gerou debate jurídico e de políticas públicas.
O pano de fundo, portanto, não é apenas quem fornece modelos para a Defesa, e sim que salvaguardas contratuais e técnicas acompanham esses modelos. Em linguagem empresarial, trata-se de governança de IA aplicada a setores de alto risco, com impacto direto em due diligence de clientes, em auditorias e em política de compras públicas.
![Pentágono em vista aérea, epicentro do debate sobre uso de IA em defesa]
Claude Code como motor de receita, lições para times de engenharia
A consolidação do Claude Code como produto de alto crescimento aparece repetidamente nas coberturas. Em 2025, o TechCrunch e a Wired relataram que a ferramenta alcançou US$ 1 bilhão de ARR em novembro, menos de um ano após o lançamento, e que seguia crescendo em participação dentro da base de receita. Para líderes de engenharia, o recado é prático, aplicações de IA que encurtam o ciclo de desenvolvimento, revisão e integração de código tendem a capturar orçamento com ROI mensurável.
Nos meses recentes, análises de mercado indicam que o run rate do Claude Code dobrou desde o início de 2026, superando US$ 2,5 bilhões, enquanto a base de clientes com gastos anuais acima de US$ 100 mil cresceu várias vezes em 12 meses. Essa dinâmica sugere expansão de escopo dentro das empresas, do uso pontual para coding assist para fluxos mais amplos, como migração de base legada, testes e automação de documentação.
Para capturar esse valor, times técnicos precisam alinhar segurança de software, governança de dados e SRE. Controles como isolamento de repositórios, políticas de saída de dados e logs de prompts são indispensáveis para auditoria e para atender exigências de conformidade, sobretudo em setores regulados. A tendência, apontada por clientes enterprise, é integrar agentes de código ao SDLC, com gates de revisão que combinam verificações estáticas, testes e análise semântica assistida por IA.
![Logotipo da Anthropic, símbolo da expansão corporativa e do foco em IA segura]
O que muda para clientes enterprise, compras públicas e compliance
Para compradores corporativos, a controvérsia com o Pentágono é um lembrete sobre cláusulas de uso aceitável e sobre o papel de aditivos contratuais. O caso OpenAI, que explicitou proibições a vigilância doméstica e restringiu uso por agências de inteligência sem novo acordo, virou referência imediata para equipes jurídicas pedirem linguagem semelhante em RFPs, MSAs e SLAs. Mesmo quando o fornecedor não é o mesmo do noticiário, precedentes públicos costumam pautar mesas de negociação.
No setor público, a mensagem é a necessidade de equilibrar capacidade tecnológica com garantias de direitos civis e accountability. A cobertura do Washington Post mostra como prazos, ameaças de blacklist e menções ao Defense Production Act elevaram o tom do embate, mas também como declarações oficiais insistem no uso apenas legal dos sistemas. Contratos que detalham dados permitidos, logs, revisões humanas obrigatórias e limites de missão tendem a reduzir atritos institucionais.
Para o ecossistema, há efeito colateral sobre concorrência e lock-in. Se um fornecedor for classificado como risco de cadeia de suprimentos, todo parceiro que o utilize pode ser impactado em contratos federais. Arquiteturas multicloud e multi-model passam a ser vistas não só como estratégia técnica, mas como hedge regulatório, mantendo planos de fallback em caso de sanções, vetos ou mudanças de política pública.
Estratégia de produto e custos, por que crescer tanto custa caro
A expansão de receita convive com investimentos elevados. O Information reportou expectativas de gastos de dezenas de bilhões de dólares combinando treino e inferência, além de uma janela maior para atingir caixa positivo. É coerente com a maturidade do setor, onde o custo marginal da inferência em escala, mesmo com otimizações, pressiona margens enquanto a empresa ancora posições no mercado corporativo.
Na prática, roadmaps de produto privilegiam modelos mais eficientes para workloads específicos, a exemplo de variações Sonnet e Haiku citadas em matérias recentes, e recursos enterprise como busca corporativa, conectores e camadas de segurança de dados. Isso reduz TCO para o cliente e cria redes de valor difícil de replicar, ancorando upsell. Ao mesmo tempo, incentiva pipelines de quantização, caching semântico e orquestração que escolhe dinamicamente o modelo mais barato que atenda o SLA de qualidade.
Para clientes, o ponto é mensurar ROI além do custo por token. Métricas de lead time para mudanças, taxa de bugs por release, cobertura de testes e tempo médio de resolução dão visão integrada do ganho de produtividade entregue pelos agentes de código e pelos copilotos internos.
Reputação, opinião pública e o teste do contrato social da IA
O episódio com o Pentágono mostrou que contratos de alta visibilidade carregam riscos reputacionais imediatos. Coberturas recentes destacaram reações negativas de usuários, funcionários e especialistas em privacidade quando a linguagem contratual parece abrir brechas para vigilância em massa por meio de dados comerciais. O recuo com aditivos mais claros, publicado pela OpenAI, sinaliza que a expectativa pública por salvaguardas explícitas cresceu, e que transparência contratual virou diferencial competitivo.
Para a Anthropic, a coerência entre discurso de segurança e postura negocial é parte do equity de marca. Ao resistir a retirar limites sobre vigilância doméstica e armamento autônomo, a empresa reforça uma tese central, dá para atender segurança nacional preservando parâmetros de direitos civis, desde que acordos, auditorias e limites técnicos estejam bem definidos. O noticiário do Washington Post sugere que ainda há espaço para composição, mas deixa claro que a cobrança por objetivos e limites verificáveis tende a aumentar.
Oportunidades práticas para líderes de tecnologia
Executivos que precisam decidir entre modelos e contratos podem extrair três ações práticas:
-
Padronizar cláusulas de uso aceitável, espelhando as salvaguardas já publicadas em acordos de grande visibilidade, por exemplo, proibição de vigilância doméstica com dados comerciais, auditoria independente, logs, retenção mínima e exigência de humano no loop para casos de risco. Isso reduz incerteza interna e acelera aprovações.
-
Arquitetar multivendor e multi-model, garantindo portabilidade entre Anthropic, OpenAI e outros, para mitigar riscos políticos e operacionais. Além de flexibilidade técnica, essa abordagem cria poder de barganha em preço e capacidade. A dinâmica recente entre fornecedores e o governo mostra que dependência excessiva de um único stack pode virar risco material.
-
Medir valor de forma holística. Produtos como o Claude Code ganham espaço porque entregam resultados mensuráveis no ciclo de desenvolvimento. Use métricas de engenharia para justificar contratos, e replique o raciocínio em áreas como atendimento, finanças e jurídico, conectando copilotos a KPIs de negócio. A evolução relatada por veículos especializados corrobora essa tese de ROI com base em produtividade.
Conclusão
A aproximação da Anthropic a US$ 20 bilhões em receita anual confirma a tese de que a próxima onda de valor em IA está no enterprise, em agentes de produtividade com ROI claro e em contratos que combinam performance com governança. O conflito com o Pentágono expõe tensões entre urgência de adoção e salvaguardas civis, e acelera a profissionalização das cláusulas contratuais, auditorias e padrões de uso aceitável.
O mercado deve responder premiando fornecedores que unem resultados técnicos, clareza jurídica e abertura para auditoria. Para clientes, a lição é adotar IA com disciplina, políticas robustas e arquitetura flexível. Para reguladores e contratantes públicos, vale enfatizar salvaguardas explícitas e verificáveis, evitando zonas cinzentas. A boa notícia é que o setor começa a transformar esse debate em padrões práticos, dando sinais de maturidade que sustentam, e não freiam, a inovação.
