Vista externa do data center do Google em The Dalles, Oregon
Nuvem e IA

Anthropic gastará US$200 bi em Google Cloud e TPUs em 5 anos

Relato exclusivo aponta compromisso bilionário da Anthropic com o Google para nuvem e chips de IA. O que isso revela sobre a economia da IA, capacidade de data centers e os riscos por trás dos backlogs recordes

Danilo Gato

Danilo Gato

Autor

7 de maio de 2026
8 min de leitura

Introdução

A palavra‑chave aqui é Anthropic. O relatório original aponta que a Anthropic se comprometeu a gastar cerca de US$ 200 bilhões com o Google Cloud e chips de IA ao longo de cinco anos, um número de escala sem precedentes para um cliente de nuvem, segundo o The Information e relatos derivados da Reuters.

Esse compromisso aparece no contexto de um backlog de receita divulgado pela Alphabet na última semana útil de abril, totalizando US$ 467,6 bilhões em compromissos futuros, dos quais US$ 462,3 bilhões são da Google Cloud. O relatório sugere que a Anthropic explicaria mais de 40 por cento desse backlog, um indicador de concentração que muda o tabuleiro competitivo.

O artigo aprofunda o que está por trás dessa cifra, o papel dos TPUs do Google no plano de expansão da Anthropic, os marcos de capacidade já divulgados, como 1 GW em 2026 e cerca de 3,5 GW adicionais iniciando em 2027 via Broadcom, e os impactos dessa corrida de computação na economia da IA.

O que significa “US$ 200 bilhões” em cinco anos

O número não é um cheque à vista, é um compromisso plurianual de consumo de nuvem e chips. Em contratos de cloud, esses compromissos entram como remaining performance obligations, ou backlog de receita, que a Alphabet detalhou no 10‑Q, ressaltando US$ 462,3 bilhões associados à Google Cloud em 31 de março de 2026. Se a Anthropic for mesmo mais de 40 por cento disso, trata‑se de uma concentração extraordinária para um único cliente.

O recorte temporal citado nos relatos coloca a vigência a partir do ano que vem, distribuída em cinco anos, alinhada a marcos de capacidade e cronogramas de fabricação de chips. Essa estrutura faz sentido em um mercado onde fornecedores reservam capacidade com anos de antecedência, sincronizando prazos de data centers, redes e energia.

Na prática, esse tipo de acordo trava preço, volume e cronogramas de entrega de capacidade. A Alphabet também indicou aceleração forte de negócios de IA na nuvem, com crescimento e conversão esperada de mais de metade desse backlog nos próximos 24 meses, um ponto crítico para projetar margens e fluxo de caixa.

Capacidade: de 1 GW em 2026 a ~3,5 GW a partir de 2027

A Anthropic já havia anunciado mais de 1 gigawatt de capacidade de TPUs em 2026 sob um acordo anterior com o Google Cloud. Em abril, um novo arranjo tripartite, com Broadcom, acrescentou cerca de 3,5 GW iniciando em 2027, conforme documentos de valores mobiliários citados por veículos especializados e pelo próprio escritório Sullivan & Cromwell. Esses números ajudam a ancorar a escala física por trás do compromisso financeiro.

Essa expansão conversa com um movimento mais amplo do setor. TechCrunch relatou investimento do Google de até US$ 40 bilhões na Anthropic, em dinheiro e compute, ampliando a oferta de 5 GW adicionais de capacidade nos próximos cinco anos, com possibilidade de expansão. Isso coloca o Google Cloud como um dos pilares de fornecimento de computação para a Anthropic, ao lado de outras parcerias.

![Google data center em The Dalles, Oregon]

Dependência multicloud estratégica e o papel da Broadcom

A Anthropic adotou uma estratégia declaradamente multicloud. Além dos TPUs do Google, a empresa anunciou, em 21 de abril, um acordo com a Amazon para garantir até 5 GW de capacidade, incluindo Trainium2 e Trainium3, com quase 1 GW até o fim de 2026. Isso reduz risco de concentração e melhora a alavancagem de negociação.

A Broadcom cumpre um papel operacional crítico, atuando como parceira de design e fornecedora de componentes e integração para os TPUs do Google. A partir de 2027, o acordo prevê disponibilização de cerca de 3,5 GW à Anthropic, com vigência até 2031 para o roadmap de TPUs. Em conjunto, essas peças sugerem uma malha de contratos interdependentes que alinham chips, data centers, rede e capital por vários anos.

Para clientes corporativos da Anthropic, essa arquitetura importa porque define previsibilidade de SLA, latência e preço por token processado. Para investidores, indica onde a margem pode ficar mais pressionada, ao conciliar picos de capex da cadeia de fornecedores com curvas de adoção de IA generativa no enterprise.

Backlog recorde, conversão em receita e sensibilidade de mercado

O backlog de US$ 462,3 bilhões da Google Cloud, divulgado no 10‑Q, estabelece o pano de fundo quantitativo. Vários veículos destacaram que a Anthropic responderia por mais de 40 por cento desse montante. Uma concentração desse tamanho eleva a sensibilidade a qualquer mudança de plano do cliente, mas também cria um incentivo para o provedor alinhar preços e roadmap para garantir conversão.

Não por acaso, após os relatos sobre o compromisso da Anthropic, houve reação positiva nas ações da Alphabet no after‑hours, segundo a cobertura de mercado. Sinais de demanda contratada de longo prazo, combinados com crescimento de receita de IA, tendem a reduzir a incerteza, mesmo que o reconhecimento contábil ocorra de forma escalonada ao longo dos anos.

Ilustração do artigo

Do lado da Anthropic, há indicadores de tração comercial que ajudam a sustentar a ambição. Reportagens recentes mencionam que o run rate anualizado teria ultrapassado US$ 30 bilhões em 2026, contra cerca de US$ 9 bilhões no fim de 2025. Isso não elimina os desafios de unit economics, mas justifica reservar compute em grandes blocos para atender demanda.

Chips, eficiência e custo por inferência

O foco em TPUs do Google não é apenas por capacidade absoluta. Publicações técnicas do próprio Google Cloud indicam ganhos de desempenho e custo em cargas de treinamento e inferência com v5e e gerações seguintes, enquanto a disponibilidade em clusters maciços garante paralelismo e throughput para modelos cada vez maiores. Em cenários de texto‑imagem, por exemplo, benchmarks públicos já apontaram aceleração relevante versus gerações anteriores.

Para um provedor de modelos como a Anthropic, cada queda de custo por token inferido abre espaço para cortar preço, ampliar margens ou acelerar aquisição de clientes empresariais. Em mercados com competição de preço por mil tokens, eficiência de chip e otimização de pilha de software, como JAX e XLA em TPUs, tornam‑se armas estratégicas.

![Logo da Anthropic]

Riscos, financiamento e sustentabilidade do ciclo

Relatos recentes chamam atenção para o papel crescente de financiamentos estruturados e crédito privado na expansão de infraestrutura de IA. Quando compromissos chegam à casa de centenas de bilhões, o risco deixa de ser apenas tecnológico e passa a incluir preço de energia, cronogramas de subestações, lead times de equipamentos e custo de capital. As referências a alertas de reguladores sobre alavancagem e concentração no setor reforçam esse ponto.

Há também o debate clássico de bolha versus fundamentos. Alguns analistas destacam que a receita de players de IA, como a Anthropic, estaria crescendo em ritmo histórico, o que, por si só, não valida avaliações ou compromissos, mas mostra uma base real de demanda. O equilíbrio entre crescimento de receita e investimentos trilionários do ecossistema é o que definirá winners e margens sustentáveis.

O que observar nos próximos trimestres

  • Conversão do backlog em receita da Google Cloud e impactos na margem operacional. Documentos da Alphabet indicam aceleração de Cloud, com expectativa de conversão de mais da metade em até 24 meses.
  • Cronograma de 1 GW em 2026 e a rampa de aproximadamente 3,5 GW a partir de 2027 via Broadcom. Qualquer deslize de cronograma de data center ou fornecimento de componentes pode deslocar esta curva.
  • Evolução da estratégia multicloud da Anthropic, incluindo o acordo com a Amazon para até 5 GW e a interoperabilidade de modelos em serviços como Vertex AI, Bedrock e Azure.
  • Eficiência de TPUs e novas gerações, já que melhorias incrementais de performance podem alterar significativamente custo por token e, por extensão, preço ao cliente.

Reflexões e insights

O número de US$ 200 bilhões chama atenção, mas o que realmente importa é a mecânica por trás dele. O mercado de IA está se organizando em blocos de capacidade de vários gigawatts, com contratos que misturam fornecimento de chips, integração, hospedagem e rede. Nesse arranjo, reservar compute cedo reduz risco de falta futura, mas aumenta a exposição a mudanças tecnológicas e de preço de energia.

Em paralelo, a competição por clientes empresariais força provedores de modelos a equilibrar velocidade de entrega com custos de servir, algo que só fecha com escala e eficiência de hardware. TPUs, Trainium e outras linhas de chips proprietários, alinhadas a software otimizado, podem criar vantagens de custo difíceis de replicar, desde que a demanda continue a converter na velocidade sugerida pelos run rates e backlogs.

Conclusão

O suposto compromisso da Anthropic de US$ 200 bilhões com o Google Cloud e TPUs não é um ponto fora da curva, é um marco de uma nova fase da economia da IA. Backlogs recordes, blocos de capacidade de múltiplos gigawatts e acordos integrados com fabricantes e integradores de chips revelam a industrialização acelerada do setor. O que está em jogo é a capacidade de transformar compromissos em receita recorrente com margens saudáveis.

Para quem opera produtos de IA, a leitura prática é clara, garantir acesso a compute eficiente, negociar horizonte de preços e acompanhar a evolução de TPUs e concorrentes diretos. Para quem acompanha mercado, as próximas divulgações da Alphabet e os marcos de capacidade em 2026 e 2027 serão o termômetro de quão ancorado está esse ciclo de investimento.

Tags

AnthropicGoogle CloudChips de IA