Logos AMD e Meta sobre rack de servidores, parceria de 6 GW de GPUs
Inteligência Artificial

AMD e Meta expandem parceria para 6 GW de GPUs AMD

Meta fecha acordo multianual com a AMD para escalar infraestrutura de IA com até 6 gigawatts de GPUs Instinct, alinhando roadmaps de hardware, software e sistemas e preparando os primeiros embarques para 2H 2026.

Danilo Gato

Danilo Gato

Autor

1 de março de 2026
8 min de leitura

Introdução

A parceria AMD e Meta 6GW de GPUs ganha forma com um acordo multianual que prevê a implantação de até 6 gigawatts de aceleradores AMD Instinct para a infraestrutura de IA da Meta. Segundo as empresas, os primeiros embarques para viabilizar 1 GW começam no segundo semestre de 2026, baseados em uma GPU customizada derivada da arquitetura MI450 e em CPUs EPYC de 6ª geração, codinome Venice. O projeto usa a arquitetura de rack Helios, desenvolvida com a Meta no âmbito do Open Compute Project.

O anúncio reforça a estratégia de diversificação de compute da Meta e coloca a AMD como um fornecedor-chave em escala de hyperscaler, com colaboração que alinha silício, sistemas e software. Além de hardware, o acordo inclui uma estrutura de warrant de até 160 milhões de ações da AMD, vinculada a marcos de remessas de GPUs, o que evidencia o compromisso de longo prazo entre as empresas.

O que muda com 6 gigawatts de GPUs na prática

Escalar para 6 GW não é só aumentar inventário, é abraçar uma arquitetura pensada para treinar e servir modelos cada vez mais grandes e dinâmicos. A Meta destaca uma abordagem de portfólio, combinando fornecedores e tecnologias para workloads distintos, enquanto integra o stack com a AMD para acelerar inovação e resiliência operacional. Na prática, esse volume permite consolidar treinamento de modelos de base, expandir fine-tuning distribuído e ampliar inferência em serviços de consumo, tudo sob um mesmo ecossistema.

No curto prazo, o primeiro gigawatt programado para 2H 2026 cria um ritmo de ramp up previsível. Para o time de infraestrutura, isso significa planejar fornecimento de energia, refrigeração líquida, redes e orquestração em escala de data center, seguindo padrões abertos definidos pela comunidade OCP e pela arquitetura Helios.

Helios: por que o rack importa tanto quanto o chip

Em ambientes onde a limitação já não é apenas FLOPs, e sim como os aceleradores conversam entre si, a arquitetura de rack Helios vira protagonista. Projetada com base no Open Rack Wide apresentado pela Meta no OCP Global Summit 2025, Helios busca padronizar potência, refrigeração e serviço em layout de rack duplo, com interconexão aberta para escalar dentro e fora do rack.

No blueprint divulgado pela AMD, cada rack Helios pode agrupar 72 GPUs de próxima geração, conectadas por padrões abertos como UALink e Ultra Ethernet, entregando throughput elevado para treinamento e inferência distribuídos. Essa abordagem promete reduzir o acoplamento a interconexões proprietárias, simplificar interoperabilidade com OEMs e acelerar time to market. Para quem precisa implantar dezenas ou centenas de racks, padrões abertos são a diferença entre crescimento linear e dores de integração.

![Rack AMD Helios em destaque]

MI450, EPYC Venice e software: o tripé da performance

O plano inicial usa uma GPU customizada baseada na arquitetura MI450, com suporte de CPUs EPYC de 6ª geração, codinome Venice. O objetivo é casar largura de banda de memória, interconexão e eficiência por watt com as demandas dos workloads da Meta, rodando sobre o stack ROCm e integrando-se a redes Ethernet de alta velocidade. A AMD e a Meta afirmam que os embarques que suportam o primeiro gigawatt começam no segundo semestre de 2026.

Nos materiais de arquitetura, a AMD projeta para a série MI450 capacidades como centenas de gigabytes de HBM4 por GPU e picos de largura de banda de memória na casa de dezenas de terabytes por segundo, justamente para alimentar modelos com trilhões de parâmetros. O Helios, no agregado do rack, mira múltiplos exaFLOPs em FP4 e FP8, reforçando que o gargalo deixou de ser apenas compute isolado e passou a ser integração de sistema. São projeções de engenharia publicadas pela AMD e sujeitas a mudanças até o lançamento final.

Por que a Meta diversifica compute e o que isso sinaliza ao mercado

A Meta aponta que a parceria faz parte de uma estratégia de portfólio para infraestrutura, buscando flexibilidade e resiliência com fornecedores diversos, ao mesmo tempo em que avança o programa interno MTIA para cargas específicas. O acordo com a AMD reduz risco de dependência, abre caminho para otimizações customizadas de hardware e software e cria alternativas competitivas no mercado de aceleradores.

Do lado de mercado, a reação foi imediata. Veículos financeiros reportaram salto nas ações da AMD após o anúncio, interpretando o contrato como validação do papel da empresa em hyperscalers e indicando potencial de receita expressiva por gigawatt entregue, sobretudo com milestones atrelados ao warrant emitido para a Meta. Para fornecedores adjacentes, o volume sugere demanda correlata por memória HBM, rede, energia e refrigeração, impactando toda a cadeia de data centers.

Padrões abertos, interoperabilidade e a corrida por IOPS de rede

A escolha por Ethernet como base de escala entre racks, somada a UALink para escala interna, fortalece a tese de adotar padrões abertos para construir fábricas de IA. Essa visão não é só filosófica, ela é operacional. Fabrics abertos reduzem lock-in, multiplicam fornecedores compatíveis e impulsionam inovações incrementais sem reengenharia completa do stack. O roadmap público da AMD mostra Helios integrando UALink e Ultra Ethernet, uma combinação pensada para clusters massivos e resilientes.

Ilustração do artigo

Na prática, projetos em 2026 já começam a aparecer com OEMs adotando Helios e o padrão Open Rack Wide, sinalizando um caminho comercial para levar essa arquitetura de referência para o mercado. A literatura especializada destaca implementações com até 72 GPUs de nova geração por rack, grande volume de HBM4 e interconexão Ethernet alinhada ao consórcio UEC, como alternativa aberta a abordagens proprietárias.

![Detalhe do rack AMD Helios]

O cronograma, os riscos e o que acompanhar em 2026

O anúncio é datado de 24 de fevereiro de 2026 e estabelece marcos claros. O primeiro gigawatt começa a embarcar no segundo semestre de 2026, com GPU baseada em MI450, CPUs EPYC Venice e arquitetura Helios. O restante da rampa depende de execução técnica, cadeia de suprimentos e validação de sistemas em escala. A própria AMD classifica várias afirmações como prospectivas, alertando para riscos e incertezas que podem alterar cronogramas e resultados.

Para equipes de capacidade, o que vale monitorar de perto é a maturidade do stack ROCm para os modelos pretendidos, a estabilidade de drivers na escala de milhares de GPUs, a disponibilidade de HBM4 e as integrações de rede com padrões UALink e Ultra Ethernet. Outro ponto é a evolução do pipeline de OEMs que transformarão Helios em produtos, garantindo múltiplos caminhos de aquisição e suporte.

Impacto para times de IA, infraestrutura e finanças corporativas

Para times de IA, 6 GW traduzem em mais janelas de experimentação e entrega. Treinamento full scale deixa de ser um recurso escasso, e práticas como curriculum learning, RLHF e avaliação robusta ganham cadência. Inferência se beneficia de latência mais previsível, já que a arquitetura Helios foi pensada para tráfego LLM em larga escala. Isso permite desenhar SLAs mais agressivos para produtos que chegam a bilhões de pessoas.

Para finanças corporativas, a leitura é de investimento em capacidade com passo escalonado. A estrutura de warrant atrelada a marcos de entrega tende a alinhar incentivos e reduzir assimetria entre roadmap e compras, favorecendo previsibilidade de custo por token servido ao longo do ciclo de vida dos modelos. Em paralelo, a reação positiva do mercado sugere confiança de investidores na execução da AMD em hyperscalers.

Como capturar valor agora, sem esperar 6 GW

Equipes de plataforma podem começar revisando padrões de rede e telemetria para preparar clusters atuais para coexistir com racks Helios no futuro, padronizando métricas de throughput e latência fim a fim. No software, vale priorizar portabilidade e otimização para ROCm, garantir pipelines reprodutíveis e explorar contêineres certificados em hubs oficiais. Na governança, ajuste de KPIs para custo por inferência e custo por etapa de treinamento ajuda a medir ganhos quando os primeiros racks entrarem em operação.

Reflexões finais

A combinação de parceria estratégica, padrões abertos e desenho de sistema em nível de rack indica um novo ciclo da infraestrutura de IA. O número 6 GW chama atenção, mas o diferencial está no como. Ao alinhar silício, software e sistemas, a dupla AMD e Meta transforma performance teórica em entrega consistente, que é onde os produtos realmente ganham tração.

Nada disso exclui riscos. Cronogramas podem se mover, especificações podem mudar e a prova de fogo virá quando milhares de GPUs estiverem servindo tráfego real. Ainda assim, a direção é clara, mais abertura, mais interoperabilidade e mais foco em eficiência por watt e por dólar, para que IA em escala seja sustentável técnica e economicamente.

Conclusão

A parceria AMD e Meta 6GW de GPUs sinaliza um mercado de IA que amadurece, com decisões arquiteturais pensadas para desempenho real e expansão segura. O primeiro gigawatt em 2H 2026, com MI450, EPYC Venice e Helios, é um passo concreto nessa trajetória e deve abrir espaço para novos modelos, casos de uso e experiências de produto em grande escala.

Para quem constrói, a oportunidade está em adotar padrões, preparar software para portabilidade e antecipar o impacto de redes e refrigeração em topologias gigantes. A recompensa, se bem executada, é um ciclo mais rápido de P&D, custos previsíveis por inferência e uma base pronta para a próxima onda de IA generativa e agentic.

Tags

Infraestrutura de IAData CentersGPUs