Anthropic e Google e Broadcom, TPUs multi-GW em 2027
Parceria estratégica amplia acesso a TPUs de última geração e deve iniciar a entrega de múltiplos gigawatts a partir de 2027, com impacto direto em custo, escala e velocidade do desenvolvimento de IA.
Danilo Gato
Autor
Introdução
A parceria da Anthropic com Google e Broadcom para TPUs de múltiplos gigawatts, com entrada gradativa a partir de 2027, muda a curva de oferta de computação para IA em larga escala. O anúncio, publicado em 6 de abril de 2026, confirma um novo acordo que eleva substancialmente a capacidade para treinar e servir os modelos Claude em infraestrutura baseada em TPUs de próxima geração.
O movimento ocorre em um momento de forte aceleração de demanda, com a Anthropic reportando run rate acima de 30 bilhões de dólares, ante cerca de 9 bilhões no fim de 2025, além da ampliação do número de clientes corporativos com gasto anual acima de 1 milhão de dólares. A maior parte da nova capacidade será instalada nos Estados Unidos, reforçando o compromisso de investimento em infraestrutura de computação no país.
Este artigo analisa o que está por trás do acordo, o papel de cada empresa, a tecnologia envolvida, os impactos de custo, desempenho e energia, e as implicações para o ecossistema de IA entre 2026 e 2028.
O que exatamente foi anunciado
A Anthropic assinou um novo acordo com Google e Broadcom para “múltiplos gigawatts” de capacidade de TPUs de próxima geração, com fornecimento começando em 2027. O comunicado oficial destaca a expansão da parceria com Google Cloud e Broadcom, bem como a diversificação de hardware utilizada pela empresa, que segue treinando e executando modelos em AWS Trainium, TPUs do Google e GPUs Nvidia.
Em paralelo, Broadcom e Google firmaram um acordo de longo prazo para o desenvolvimento e o fornecimento de próximas gerações de TPUs e componentes de rede até 2031. Em documento ligado à divulgação para investidores, Broadcom detalhou que, “separadamente”, Anthropic terá acesso por meio da Broadcom a aproximadamente 3,5 gigawatts de capacidade de computação baseada em TPUs de próxima geração a partir de 2027, compondo o compromisso de múltiplos gigawatts.
Esse passo reforça anúncios anteriores. Em outubro de 2025, Anthropic já havia ampliado sua capacidade de TPUs na Google Cloud, com reportagens indicando acesso a até 1 milhão de TPUs e mais de 1 gigawatt de computação em 2026. O novo acordo escala esse patamar para além de 2027, com pipeline de energia e produção de chips mais previsível.
Por que Google e Broadcom, e o que muda nos custos
A escolha por TPUs do Google e o envolvimento profundo da Broadcom refletem preço, desempenho e eficiência energética percebidos. Em maio de 2024, o Google apresentou a geração Trillium, com pico de desempenho por chip 4,7 vezes maior que a v5e. Em notas posteriores, a própria Google Cloud apontou ganhos de desempenho por dólar de até 2,1 vezes sobre a v5e e 2,5 vezes sobre a v5p em treinos de LLMs densos, sinalizando queda significativa do custo por token em gerações mais novas.
Essa trajetória é central para modelos fronteira. Em escala multi‑gigawatt, pequenas melhorias de throughput por watt ou por dólar geram bilhões de dólares de diferença no TCO. Quando combinadas com um acordo de fornecimento de longo prazo, essas eficiências viram previsibilidade para roadmap de modelos e releases em produção.
Capacidade, energia e geografia, a equação do gigawatt
A Anthropic indicou que a maior parte da nova capacidade será localizada nos Estados Unidos, como expansão do compromisso anunciado em novembro de 2025 de investir 50 bilhões de dólares na infraestrutura de computação americana. O ponto é estratégico, já que uma onda de projetos de data centers, inclusive com fontes energéticas firmes, vem sendo articulada por big techs e parceiros energéticos para sustentar IA nos próximos anos.
O horizonte citado por líderes do setor reforça a necessidade de adicionar gigawatts de base energética apenas para IA até o fim da década, algo que já vem movimentando acordos de energia, como iniciativas de Google em geração firme e avançada e estimativas públicas sobre dezenas de gigawatts adicionais necessários para IA de 2026 a 2027.
![Corredor de racks em datacenter]
Linha do tempo 2026 a 2028, do 1 GW ao múltiplo de GWs
O degrau de 2026, com mais de 1 GW citado em reportagens sobre o acordo de 2025, funciona como ponte de escala até 2027. No novo ciclo, a combinação Google, Broadcom e Anthropic passa de “disponibilidade em massa” para “previsibilidade contratual”, incluindo o número de 3,5 GW associado à Anthropic por meio da Broadcom, conforme documento de referência. Essa rampa é o que viabiliza metas de entrega de modelos maiores, mais rápidos e com latências menores para clientes enterprise.
Para desenvolvedores e equipes de plataforma, a leitura prática é clara, haverá mais janelas de treinamento com less contention, slices maiores, interconexões mais maduras e opções multi‑cloud mais simétricas, já que a Anthropic mantém presença nos três grandes hyperscalers, com AWS como parceiro primário de treino e Google Cloud e Azure como canais fortes de distribuição.
Tecnologia, onde as TPUs avançam
Entre v5e, v5p e Trillium, há saltos de densidade, interconexão e eficiência. A v5e ficou marcada por bom custo para inferência em escala. A v5p elevou desempenho para treino e throughput. Trillium introduziu ganho de 4,7 vezes em pico por chip e acelera LLMs densos com melhor desempenho por dólar, segundo a Google Cloud. Isso importa porque workloads típicos de frontier models exigem volumes crescentes de tokens, janelas de contexto maiores e paralelismo de pipeline e tensor em escala.
Do lado de rede e sistemas, a Broadcom sustenta a malha com ASICs de switching e ótica avançada, além de estar diretamente envolvida no co‑desenho das TPUs. O acordo 2026, com prazo até 2031, privilegia continuidade de supply de componentes críticos para os racks de próxima geração. Para quem opera em produção, isso se traduz em janelas menores de risco de abastecimento, menor variabilidade de latências de interconexão e menos volatilidade de preço.
![Ilustração de datacenter focada em IA]
Impacto nos clientes, do build ao run
A Anthropic reportou aceleração forte de consumo em 2026, com mais de mil clientes corporativos acima de 1 milhão de dólares anuais. Essa base puxa novas capacidades do lado de build, treino e avaliação, mas também exige run mais barato e previsível. O reforço em TPUs tende a baratear o custo por token, melhorar SLOs, reduzir filas e criar headroom para recursos como contextos maiores e ferramentas integradas de agentes, code e segurança.
Na prática, isso abre espaço para casos como, geração e validação de código em pipelines CI, copilotos com grounding em bases privadas, detecção de risco em tempo real e automação de atendimento com controles de governança. O preço por token e a latência são as duas variáveis que mais moldam a viabilidade econômica desses cenários, e ambos se beneficiam de clusters com melhor performance por dólar.
Concorrência e dinâmica de mercado
A corrida por compute dedicado a IA está se intensificando. Em 2025, Broadcom firmou também um acordo multibilionário com a OpenAI para co‑desenvolver 10 GW de aceleradores customizados, com primeiras entregas no segundo semestre de 2026. No lado do Google, a evolução de TPUs e o acordo até 2031 com Broadcom estruturam um caminho de longo prazo, com ganhos de custo e energia visando competir com clusters baseados em GPUs Nvidia.
Para a Anthropic, a diversificação de hardware segue como estratégia, AWS permanece parceiro primário de treino, Google Cloud amplia a fronteira com TPUs e Azure aparece no portfólio como canal para clientes. Essa pluralidade protege contra choques de supply e permite escolher o melhor chip por workload.
O que observar até 2027
- Roadmap de TPUs e marcos de disponibilidade de próxima geração, com ênfase em ganhos de desempenho por dólar em LLMs densos.
- Avanços em malhas de rede de alta velocidade e ótica para interconexão entre racks e pods, área em que a Broadcom vem se posicionando.
- Acordos energéticos de base para data centers, incluindo iniciativas firmes para garantir capacidade elétrica compatível com clusters multi‑GW.
- Ritmo de adoção enterprise, medido por gasto anual por cliente e expansão de casos de uso críticos.
Como aplicar essa leitura no planejamento de produto
- Planejamento de custos, renegociar limites de consumo e prazos com base em previsões de redução de custo por token em TPUs de próxima geração a partir de 2027.
- Arquitetura, projetar pipelines de treino e avaliação moduláveis entre clouds, habilitando fallback entre AWS, Google Cloud e Azure de acordo com preço, latência e SLO.
- Engenharia de dados, preparar conjuntos e caching para contextos maiores, já que largura de banda e memória efetiva por acelerador tendem a subir nas gerações seguintes.
- Operação, acompanhar releases de features em Google Cloud para TPUs, como multislice e melhorias de scheduling, que elevam uso efetivo e reduzem filas.
Reflexões finais
Escalar IA de ponta deixou de ser apenas uma questão de mais chips, virou uma disciplina de engenharia de custos, energia e cadeia de suprimentos. O acordo da Anthropic com Google e Broadcom sinaliza uma nova fase, com previsibilidade de computação medida em gigawatts e contratos que cobrem anos, não apenas trimestres. Isso reduz risco, dá cadência ao roadmap e estimula a competição por melhor custo entregue ao cliente.
Ao mesmo tempo, a pressão sobre energia e redes obriga um desenho cuidadoso, tanto para treinos massivos quanto para inferência em escala. Quem alinhar arquitetura, compras e energia com essa nova onda de TPUs tende a capturar margens superiores em produtos de IA, especialmente em use cases que consomem muitos tokens e exigem baixa latência.
Conclusão
O anúncio de 6 de abril de 2026 consolida a parceria da Anthropic com Google e Broadcom em torno de múltiplos gigawatts de TPUs, com início de entrega a partir de 2027. Com isso, a empresa sustenta um crescimento acelerado, melhora a economia por token e amplia a resiliência multi‑cloud, mantendo AWS, Google Cloud e Azure como pilares do go‑to‑market.
Para o mercado, a mensagem é clara, escala e eficiência vão definir os vencedores da próxima fase da IA. O investimento em computação, redes e energia, ancorado por contratos longos, deve pavimentar releases mais frequentes de modelos e experiências melhores para clientes enterprise, com custos mais previsíveis e disponibilidade elevada.
