Sam Altman revela apostas massivas em IA, hardware e infraestrutura
O líder da OpenAI acelera um plano bilionário de chips, data centers e energia para escalar modelos cada vez mais capazes, firmando alianças com Oracle, Nvidia e SoftBank, e garantindo gigawatts de capacidade.
Danilo Gato
Autor
Introdução
Sam Altman, CEO da OpenAI, coloca a palavra chave, Sam Altman, no centro de uma estratégia que combina IA, hardware e infraestrutura em escala inédita. Nos Estados Unidos, a OpenAI e parceiros consolidaram um plano de 10 gigawatts de capacidade sob a plataforma Stargate, com marcos públicos em 2025 e 2026, incluindo o campus em Abilene, Texas, e a seleção de novos sites em estados como Texas, Novo México, Wisconsin e Ohio.
A mensagem é clara, os próximos saltos de qualidade em IA não virão apenas de algoritmos, virão de uma base física que inclui chips de última geração, redes de alta velocidade, energia firme e bilhões de dólares em data centers. Parceiros como Oracle, Nvidia, SoftBank e SB Energy já estão comprometidos com acordos multibilionários para viabilizar essa infraestrutura.
Este artigo detalha o que está por trás dessas apostas, números concretos dos projetos, implicações para o mercado de chips e energia, além de caminhos práticos para empresas que querem construir aplicações de IA de produção sem ficarem presas a gargalos de capacidade.
1. O que significa apostar em IA, hardware e infraestrutura, na prática
A OpenAI organizou seu plano de expansão em torno do Stargate, um guarda-chuva que cobre seleção de locais, construção de data centers, aquisição de chips, acordos de fornecimento de energia e operação multicloud. Em 22 de julho de 2025, a empresa anunciou com a Oracle a adição de 4,5 GW de capacidade nos EUA. Somando com Abilene, isso levou o total em desenvolvimento para mais de 5 GW e mais de 2 milhões de chips previstos. O compromisso, anunciado na Casa Branca em janeiro de 2025, mira 10 GW com até 500 bilhões de dólares de investimento.
Em 23 de setembro de 2025, OpenAI, Oracle e SoftBank divulgaram cinco novos sites nos EUA, colocando o plano “adiantado” rumo a quase 7 GW e mais de 400 bilhões de dólares em investimentos ao longo de três anos. A atualização de outubro confirmou que o site do Meio-Oeste seria em Wisconsin, com Oracle e Vantage.
Abilene já iniciou operações, usando Oracle Cloud Infrastructure com chips Nvidia, e a expansão inclui novos locais no Texas, Novo México e no Meio-Oeste. A cobertura da UPI detalha que Oracle é a locatária da capacidade que será alugada à OpenAI por contratos de longo prazo, um padrão que se repete em outros sites Stargate.
Empresas e analistas estimam que o ciclo de investimentos em infraestrutura de IA, somando parcerias com Nvidia, AMD, Oracle e outros, já roça a casa do trilhão de dólares em compromissos anunciados ou cartas de intenção em 2025. O pano de fundo é o salto de demanda por computação para treinar e servir modelos de base.
2. Chips, supply chain e o novo tabuleiro de hardware
Do lado de hardware, o ecossistema de parceiros se move para reduzir a escassez de aceleradores e diversificar fontes. A Nvidia anunciou investimento de 100 bilhões de dólares para ajudar a expandir a capacidade da OpenAI, com um roteiro de data centers que começa com 1 GW no fim de 2026 e escala para 10 GW. A ideia é combinar fornecimento de chips com participação acionária e receitas dos próprios centros.
A Oracle, por sua vez, está comprometida em comprar aproximadamente 40 bilhões de dólares em chips Nvidia GB200 para equipar Abilene, em um contrato de 15 anos de arrendamento de capacidade para a OpenAI. Esse site, parte do Stargate, foi estimado para 1,2 GW quando completo.
No cenário mais amplo, a Microsoft segue estratégia híbrida entre comprar chips Nvidia e AMD, e introduzir seu próprio hardware Maia 200 para aliviar a pressão de oferta em cargas de IA. Essa combinação reforça a tese de que nenhuma única pilha de hardware atenderá toda a demanda de IA no curto prazo, o que explica a multiplicidade de parceiros que orbitam os projetos da OpenAI.
A base manufatureira também se reorganiza, com TSMC avançando para produzir chips de 3 nm no Japão, um movimento relevante para a cadeia de suprimentos de IA. Embora não seja um anúncio direto da OpenAI, o reforço de capacidade avançada em diferentes geografias reduz riscos de gargalos, melhora latência de fornecimento e cria alternativas para próximos nodes.
3. Energia, o novo gargalo estratégico
Executivos do setor vêm repetindo que o limitador, cada vez mais, não são apenas GPUs, é energia. Projeções do IEA citadas na Wikipédia indicam que o consumo elétrico global de data centers pode mais que dobrar até 2030, chegando a cerca de 945 TWh, perto de 3 por cento do consumo mundial previsto. Isso muda a conversa de IA de um tema puramente digital para uma disputa por gigawatts firmes de eletricidade.
A OpenAI vem combinando diferentes estratégias de energia e infraestrutura. Em 9 de janeiro de 2026, a empresa anunciou com a SoftBank um aporte de 1 bilhão de dólares na SB Energy e a assinatura de um arrendamento de 1,2 GW para um novo campus de data center, com a SB Energy também usando ferramentas da OpenAI internamente. Em paralelo, a SB Energy reportou pipeline de múltiplos gigawatts em solar e armazenamento com primeiras entregas em 2026.
No Texas, o projeto em Milam County foi divulgado como um campus de 1,2 GW com foco em solar e baterias, reforçando uma leitura, a OpenAI aposta pesado em energia renovável combinada com armazenamento para sustentar cargas densas de computação. Esse arranjo busca mitigar intermitência e modernizar a rede local.
A expansão também gera debates locais sobre tarifas e participação social. Em Michigan, a fornecedora DTE recebeu aprovação regulatória para destinar 1,4 GW a um site Stargate em Saline Township via procedimento ex parte, o que revoltou parte dos moradores. A concessionária argumenta que o contrato protege consumidores, exigindo pagamento por 80 por cento da capacidade contratada mesmo se o uso for menor, por 19 anos.
Enquanto isso, concorrentes diretos ilustram a direção do setor. A Meta fechou acordos para 6,6 GW de energia nuclear com Vistra, Oklo e TerraPower até 2035, sinalizando que, para hyperscalers de IA, contratos de energia firmes e de longo prazo tornaram-se tão estratégicos quanto comprar GPUs.
![Corredor com racks de servidores]
4. Onde os data centers estão surgindo e por quê
A escolha de locais segue uma matriz que combina acesso a energia, terrenos de grande porte, incentivos fiscais, água, mão de obra e malha de fibra. Em Abilene, a imprensa registrou que o campus já tem uma unidade operando com Oracle Cloud Infrastructure e Nvidia, e que novos locais incluem Shackelford County, Doña Ana County e um hub no Meio-Oeste. Em 2025, as próprias páginas da OpenAI detalharam os critérios, citando mais de 300 propostas analisadas em 30 estados.
Documentos públicos e reportagens indicam que a desenvolvedora Crusoe, parceira do projeto em Abilene, estruturou bilhões de dólares em financiamento e recebeu abatimentos de impostos locais, enquanto Oracle aparece como inquilina de prédios que depois alugam computação para a OpenAI. Esses mecanismos financeiros viabilizam construção rápida, embora gerem discussões sobre contrapartidas locais.
Para empresas usuárias, a implicação é direta, latência, disponibilidade e custo passam a variar por região e por fornecedor. Equipes de arquitetura precisam planejar workloads com consciência geográfica, adotando replicação ativa ativa onde houver SLOs rigorosos, e negociação inteligente de capacidade reservada quando o consumo é previsível.
5. O papel dos parceiros, de Oracle a Nvidia, e o efeito de rede
O desenho de parcerias lembra o início da web comercial, quando operadoras e fabricantes viabilizaram backbones e IXPs. Em 2025, a CNBC descreveu como Oracle, Nvidia e SoftBank montam um arranjo que soma centenas de bilhões, inclusive com a Oracle reorganizando liderança para priorizar a onda de IA e a Nvidia combinando fornecimento de chips com participação acionária. A CFO da OpenAI, Sarah Friar, reconheceu a necessidade de parceiros para atender a demanda.
O efeito de rede é duplo. Para a OpenAI, garante escala e diversificação de risco. Para parceiros, cria receitas recorrentes e posição privilegiada na próxima camada de software, desde serviços de treinamento e inferência até marketplaces de aplicações. Para clientes corporativos, surge a oportunidade de contratar capacidade de IA como utilidade, com SLAs mais claros e previsibilidade de custo.
No ecossistema mais amplo, a Microsoft adicionou seu chip Maia 200, mas deixou claro que continuará comprando Nvidia e AMD. Essa postura reforça a leitura de que heterogeneidade de hardware é o novo normal, e que arquiteturas e frameworks portáveis, como compilers multi backend, tornam-se vitais para evitar bloqueio tecnológico.
6. Riscos, contrapesos e o que as empresas devem fazer agora
O primeiro risco é macro, execução e sincronismo entre obras civis, chegada de energia, entrega de chips e ramp up de software. A experiência recente em Abilene e outros sites mostra que cronogramas podem avançar, mas dependem de cadeias complexas, financiamento e regulações estaduais. A cobertura da Financial Times sobre Abilene detalha contratos de longo prazo, capex de chips e leasing que amarram incentivos e responsabilidades por anos, com cronogramas até meados de 2026.
O segundo risco é energia, disponibilidade e aceitação social. A aprovação em Michigan ilustra o atrito potencial entre urgência de capacidade e procedimentos participativos. Equipes de políticas públicas e compliance precisam entrar cedo na conversa, mapeando marcos regulatórios por estado e antecipando compromissos de mitigação, eficiência hídrica e apoio à comunidade.
O terceiro risco é dependência de fornecedor. Mesmo com múltiplos parceiros, contratos desse porte criam acoplamentos técnicos e financeiros. A recomendação é diversificar níveis, de hardware e cloud a modelos de IA. Adoção de práticas multicloud, padrões abertos e observabilidade ponta a ponta reduz custo de mudança no médio prazo.
Aplicações práticas imediatas:
- Planejamento de capacidade por cenários. Trate computação de IA como insumo industrial, com contratos de reserva, compromissos de consumo mínimo e métricas de utilização alvo. Use projeções trimestrais e revise mensalmente.
- Engenharia para heterogeneidade. Padronize toolchains com suporte a múltiplos aceleradores e backends. Evite recursos proprietários que impeçam portabilidade de modelos. As movimentações de Microsoft, Nvidia e AMD mostram que a diversidade vai aumentar.
- Energia e localização como parte do design. Negocie PPAs ou acordos de green credits quando possível, avalie regiões com melhor equilíbrio entre energia firme, impostos e fibra.
- Sourcing de chips e lead times. Alinhe com fornecedores e integradores sobre janelas reais de entrega. A expansão de fabricação avançada em polos como Japão e EUA pode aliviar gargalos, mas há inércia de anos.
![Sam Altman em conferência]
7. O que muda para produtos e para a estratégia de IA
A combinação de mais chips, mais energia e redes melhor integradas permite ciclos mais rápidos de treinamento e iterações de produto. Com disponibilidade crescente, empresas podem mover workloads de RAG e agentes de processos de pilotos limitados para operações contínuas, com metas de custo por interação e tempo de resposta mais estáveis.
No entanto, a expansão de oferta não elimina a necessidade de eficiência. Otimizações como quantização, mistura de especialistas, caches de KV persistentes e triton kernels afinados seguirão relevantes para bater metas de custo. Esse equilíbrio entre investir em capacidade e reduzir desperdício técnico é onde times de plataforma geram mais valor.
A governança também acompanha a escala. Grandes contratos de energia e terra pedem contrapartidas sociais e ambientais, com metas públicas de água, eficiência energética e desenvolvimento de mão de obra. A OpenAI tem destacado programas de certificação e empregos qualificados ligados aos sites Stargate, um indicativo de que o tema virou prioridade de política industrial.
8. Horizonte de 12 a 24 meses, o que acompanhar
- Entradas de energia e marcos elétricos por site. Monitorar interligações, subestações e PPAs, sobretudo nos novos polos do Texas e Wisconsin.
- Entrega de racks Nvidia GB200 em escala e ramp up de clusters. O início da entrega em junho de 2025 cria referência para o ritmo em 2026.
- Evolução dos acordos com SB Energy e cronograma de primeiras entregas solares com storage em 2026 para apoiar Milam County.
- Licenciamentos e audiências públicas em estados com novos sites, lições de Michigan sobre transparência e aceitação local.
- Movimentos de fabricantes como TSMC e AMD, e a dinâmica de chips próprios de hyperscalers, a exemplo do Maia 200.
Conclusão
As apostas massivas em IA, hardware e infraestrutura mostram um consenso, o próximo salto competitivo virá de quem transformar gigawatts, trilhões de parâmetros e logística de chips em capacidade útil para treinar e servir modelos confiáveis. O modelo Stargate de parcerias com Oracle, Nvidia e SoftBank viabiliza escala, diversificação de risco e velocidade de execução, mas impõe governança mais robusta e engenharia orientada a eficiência.
Para quem constrói produtos, a janela está aberta, e ela favorece equipes que unem engenharia para heterogeneidade, disciplina de custos e estratégia de dados. A recomendação é simples, trate IA como utilidade crítica, planeje capacidade com antecedência, evite dependências rígidas e conecte sua arquitetura às ondas de entrega de energia e chips que chegam nos próximos trimestres. Os sinais do mercado, dos GW anunciados à reorganização de fornecedores, apontam uma direção inequívoca, a infraestrutura agora decide o jogo.
