Logotipos da Meta e da Arm sobre wafer de silício
Infraestrutura de IA

Meta e Arm fecham parceria para CPUs de data center de IA

Parceria estratégica foca uma nova classe de CPUs Arm para IA em larga escala, mais desempenho por rack e integração com a pilha de hardware aberta da Meta, incluindo MTIA e OCP.

Danilo Gato

Danilo Gato

Autor

29 de março de 2026
9 min de leitura

Introdução

Meta faz parceria com Arm para criar uma nova classe de CPUs de data center voltadas a IA em larga escala, com anúncio oficial em 24 de março de 2026. O acordo posiciona a Meta como parceira líder e codesenvolvedora do primeiro CPU de data center que a Arm leva ao mercado como silício próprio, o Arm AGI CPU. Esse movimento reforça a estratégia de diversificar o portfólio de silício e aumentar densidade e eficiência energética nos data centers voltados a IA.

A importância prática está no gargalo real dos data centers modernos. GPUs aceleram o treinamento e a inferência, porém orquestração de tarefas, ingestão de dados, pré e pós-processamento e o plano de controle dependem fortemente de CPU. Ao levar um CPU projetado para “agentes” e cargas de IA persistentes, a Arm mira mais desempenho por rack, menor latência de memória e integração estreita com aceleradores, o que ajuda a escalar serviços para bilhões de usuários.

O artigo aprofunda quatro frentes. Primeiro, o que foi anunciado e por que muda o jogo. Segundo, a tecnologia por trás do Arm AGI CPU e como isso se converte em valor operacional. Terceiro, o encaixe dessa peça no tabuleiro de Nvidia e AMD dentro da Meta. Quarto, implicações estratégicas para eficiência, custos e padrões abertos.

O que exatamente foi anunciado

  • Parceria de longo prazo: Meta e Arm vão codesenvolver múltiplas gerações de CPUs para sustentar centros de dados de IA e computação geral. A Meta lidera a adoção e participa do co-design, com planos de publicar projetos de placa e rack no Open Compute Project ainda em 2026.
  • Primeira geração, Arm AGI CPU: primeiro CPU de data center produzido e vendido pela própria Arm, e não apenas IP licenciado, com foco em IA em grande escala, orquestração e workloads intensivos de controle.
  • Integração com o portfólio da Meta: os novos CPUs vão operar lado a lado com o MTIA, o acelerador proprietário de treinamento e inferência da companhia, alinhados a uma estratégia de hardware aberto e modular.

Esse anúncio se conecta a uma trajetória prévia. Em outubro de 2025, Arm e Meta já vinham aprofundando a cooperação, incluindo otimizações de PyTorch e ExecuTorch para Arm e uso de plataformas Neoverse com ganhos de performance por watt em comparação a x86. O passo de 2026 avança do software e da plataforma para um produto de silício pronto para implantação em escala.

Como é o Arm AGI CPU por baixo do capô

Os detalhes públicos apontam para uma plataforma com até 136 núcleos Neoverse V3 por CPU, construída no processo de 3 nm da TSMC, com memória DDR5 de alta vazão e latência sub 100 ns, TDP em torno de 300 W e 96 linhas PCIe Gen 6 com CXL 3.0 para expansão e pooling de memória. A meta é viabilizar mais threads por rack, mais uso efetivo de aceleradores e uma pilha de IO pronta para clusters de IA modernos.

Em configurações de referência, a Arm descreve densidades impressionantes. Há menção a 8.160 núcleos por rack em soluções a ar, e acima de 45.000 núcleos por rack em configurações líquidas de 200 kW, com promessa de mais que dobrar a performance por rack comparada às plataformas x86 mais recentes, se valendo de otimizações no desenho do core e da malha de memória. Esses números, ainda que baseados em estimativas iniciais do fornecedor, indicam uma ofensiva clara por densidade e eficiência.

Por que isso importa para IA. Em sistemas agentic e pipelines de modelos grandes, a CPU decide e orquestra o que as GPUs executam, movimenta dados entre nós e mantém serviços em pé sob carga contínua. Ganhos de latência de memória e throughput de IO significam menos tempo ocioso de aceleradores caros, melhor ocupação e custo total de propriedade mais previsível. É aqui que a Arm quer competir, com um CPU que maximiza a eficiência por rack em ambientes onde cada watt e cada U contam.

![Render de data center, corredores com racks]

Onde o novo CPU entra no tabuleiro Nvidia, AMD e MTIA

A Meta não está apostando em uma única peça. Em 17 de fevereiro de 2026, ampliou o acordo de longo prazo com a Nvidia para CPUs Grace, GPUs de última geração e rede Spectrum-X, além de um roadmap conjunto para clusters Vera Rubin. Isso sinaliza uma arquitetura unificada onde CPU, GPU e rede vêm cootimizadas como plataforma.

Uma semana depois, em 24 de fevereiro de 2026, veio o acordo multi-ano com a AMD, que pode chegar a 6 GW de GPUs Instinct e incluir warrants que dão à Meta a opção de até 10 por cento de participação na companhia conforme marcos de entrega, com embarques iniciais a partir do segundo semestre de 2026. Esse pacote também alinha EPYC e a arquitetura de rack Helios para a pilha de IA da Meta.

Como tudo se encaixa. A presença simultânea de Nvidia, AMD e do MTIA cria um portfólio heterogêneo onde cada workload pode ser colocado no melhor alvo. O Arm AGI CPU adiciona um plano de controle denso e eficiente, capaz de orquestrar lotes massivos, dar suporte a threads dedicados por tarefa e alimentar pipelines de inferência e treinamento com IO e memória de baixa latência. Em outras palavras, o CPU Arm não substitui as GPUs, ele aumenta a utilização das GPUs e reduz desperdícios caros de ciclo e energia.

Esse arranjo conversa com a tendência mais ampla de data center convergente, tema que a Arm vem promovendo com padronizações abertas e alinhamento ao OCP, pensando em maximizar compute por área e reduzir custos associados a energia e refrigeração.

Ilustração do artigo

Padrões abertos e OCP, o efeito multiplicador

A Meta afirmou que publicará projetos de placa e rack do AGI CPU no Open Compute Project ainda em 2026. Essa decisão encurta o tempo de adoção por OEMs e ODMs, ao mesmo tempo em que simplifica a vida de operadores que já padronizam DC-MHS e plataformas OCP-compliant. O ecossistema inicial inclui nomes como Supermicro, Quanta, Lenovo e ASRock Rack, com disponibilidade mais ampla prevista para a segunda metade de 2026.

Do lado de software e ferramentas, a base construída em 2025 com PyTorch, ExecuTorch e bibliotecas como FBGEMM otimizada para Arm facilita levar modelos e serviços para produção com menos atrito. A proposta de valor é clara, menor custo por desempenho e menor consumo por operação em workloads de ranking, recomendação e APIs de agentes.

Energia, densidade e o custo invisível da IA em escala

Construir clusters do tamanho que a Meta projeta exige encarar a física. O noticiário recente mostra compromissos de energia de vários gigawatts, adoção de redes Ethernet otimizadas para IA e até investimentos diretos em geração e transmissão para garantir disponibilidade. Reportagens indicam, por exemplo, uma parceria com a Entergy que prevê múltiplas usinas a gás, linhas de transmissão e armazenamento para alimentar um campus na Louisiana, além de memorandos para ampliar renováveis e até explorar repotenciação nuclear. A dimensão energética contextualiza por que desempenho por rack e por watt deixou de ser detalhe, virou requisito de negócio.

No plano técnico, densidade computacional mais alta por rack, como a projetada pelo AGI CPU, reduz footprint físico por unidade de trabalho e facilita o desenho de corredores térmicos e distribuição elétrica. Isso tem efeito cascata em CAPEX e OPEX. Quanto mais CPU consegue manter as GPUs ocupadas, maior o retorno por quilowatt investido.

![Close de servidor em sala de TI]

O que líderes de tecnologia podem fazer agora

  • Comece por métricas de densidade e eficiência. Adote KPIs como performance por rack, GB por segundo por core e custo por inferência útil, não apenas FLOPS de GPU. Essas são as unidades que o AGI CPU promete impactar primeiro.
  • Planeje a heterogeneidade. Com Nvidia, AMD, MTIA e agora CPUs Arm de alta densidade, vale criar um orquestrador que considere custo e SLO por workload. O ganho vem do acoplamento certo entre CPU e acelerador.
  • Exija padrões abertos. Aproveite OCP e DC-MHS para reduzir lock-in de fornecedor e acelerar integrações, especialmente quando a meta é escalar rapidamente sem reinventar o data center a cada geração.
  • Traga engenharia de energia para a mesa. Decisões de CPU impactam redes, refrigeração e contratos de energia. Crescimento de IA em gigawatts pede um PMO que trate infraestrutura física como parte da arquitetura de sistemas.

Reflexões e insights

A movimentação da Arm vai além de um novo produto. É um ajuste de modelo de negócios, de IP para silício de produção, mirando um espaço onde CPUs voltadas a IA podem destravar muito valor sem competir diretamente com GPUs. O foco em “agentes” e no plano de controle casa com a onda de serviços persistentes de IA que rodam 24 por 7, onde determinismo, latência de memória e IO são diferenciais.

Para a Meta, é uma aposta pragmática. Manter acordos profundos com Nvidia, um pacote robusto com AMD e ainda avançar com MTIA e CPUs Arm cria opções estratégicas. Em um mercado sujeito a restrições de cadeia de suprimentos e ciclos longos de capacidade fabril, ter múltiplos caminhos para performance por watt é uma boa apólice de seguro.

Para o ecossistema, o compromisso em liberar projetos no OCP deve acelerar a abertura e a interoperabilidade. Se a Arm demonstrar que consegue dobrar performance por rack em workloads reais e sustentar um roadmap de gerações, o impacto será sentido em TCO, emissões e velocidade de entrega de produtos digitais que dependem de IA.

Conclusão

A parceria entre Meta e Arm marca um ponto de inflexão. Ao levar ao mercado um CPU de data center projetado para IA, com ênfase em densidade, latência e integração com aceleradores, a Arm entrega uma nova alavanca para extrair valor da infraestrutura de IA. Para operadores, isso se traduz em menos watts por transação útil e mais previsibilidade no uso de clusters caríssimos.

Nos próximos trimestres, o que vai importar são provas públicas de desempenho, disponibilidade de sistemas por OEMs, e como essa peça conversa com os grandes pilares da Meta, Nvidia e AMD. Se o que foi prometido se confirmar em produção no segundo semestre de 2026, a indústria terá um novo padrão de referência para o plano de controle da IA em larga escala.

Tags

MetaArmData CentersCPUsOpen Compute Project