Sam Altman em evento de tecnologia
Tecnologia

Sam Altman revela apostas massivas em IA, hardware e infraestrutura

O líder da OpenAI acelera um plano bilionário de chips, data centers e energia para escalar modelos cada vez mais capazes, firmando alianças com Oracle, Nvidia e SoftBank, e garantindo gigawatts de capacidade.

Danilo Gato

Danilo Gato

Autor

7 de fevereiro de 2026
12 min de leitura

Introdução

Sam Altman, CEO da OpenAI, coloca a palavra chave, Sam Altman, no centro de uma estratégia que combina IA, hardware e infraestrutura em escala inédita. Nos Estados Unidos, a OpenAI e parceiros consolidaram um plano de 10 gigawatts de capacidade sob a plataforma Stargate, com marcos públicos em 2025 e 2026, incluindo o campus em Abilene, Texas, e a seleção de novos sites em estados como Texas, Novo México, Wisconsin e Ohio.

A mensagem é clara, os próximos saltos de qualidade em IA não virão apenas de algoritmos, virão de uma base física que inclui chips de última geração, redes de alta velocidade, energia firme e bilhões de dólares em data centers. Parceiros como Oracle, Nvidia, SoftBank e SB Energy já estão comprometidos com acordos multibilionários para viabilizar essa infraestrutura.

Este artigo detalha o que está por trás dessas apostas, números concretos dos projetos, implicações para o mercado de chips e energia, além de caminhos práticos para empresas que querem construir aplicações de IA de produção sem ficarem presas a gargalos de capacidade.

1. O que significa apostar em IA, hardware e infraestrutura, na prática

A OpenAI organizou seu plano de expansão em torno do Stargate, um guarda-chuva que cobre seleção de locais, construção de data centers, aquisição de chips, acordos de fornecimento de energia e operação multicloud. Em 22 de julho de 2025, a empresa anunciou com a Oracle a adição de 4,5 GW de capacidade nos EUA. Somando com Abilene, isso levou o total em desenvolvimento para mais de 5 GW e mais de 2 milhões de chips previstos. O compromisso, anunciado na Casa Branca em janeiro de 2025, mira 10 GW com até 500 bilhões de dólares de investimento.

Em 23 de setembro de 2025, OpenAI, Oracle e SoftBank divulgaram cinco novos sites nos EUA, colocando o plano “adiantado” rumo a quase 7 GW e mais de 400 bilhões de dólares em investimentos ao longo de três anos. A atualização de outubro confirmou que o site do Meio-Oeste seria em Wisconsin, com Oracle e Vantage.

Abilene já iniciou operações, usando Oracle Cloud Infrastructure com chips Nvidia, e a expansão inclui novos locais no Texas, Novo México e no Meio-Oeste. A cobertura da UPI detalha que Oracle é a locatária da capacidade que será alugada à OpenAI por contratos de longo prazo, um padrão que se repete em outros sites Stargate.

Empresas e analistas estimam que o ciclo de investimentos em infraestrutura de IA, somando parcerias com Nvidia, AMD, Oracle e outros, já roça a casa do trilhão de dólares em compromissos anunciados ou cartas de intenção em 2025. O pano de fundo é o salto de demanda por computação para treinar e servir modelos de base.

2. Chips, supply chain e o novo tabuleiro de hardware

Do lado de hardware, o ecossistema de parceiros se move para reduzir a escassez de aceleradores e diversificar fontes. A Nvidia anunciou investimento de 100 bilhões de dólares para ajudar a expandir a capacidade da OpenAI, com um roteiro de data centers que começa com 1 GW no fim de 2026 e escala para 10 GW. A ideia é combinar fornecimento de chips com participação acionária e receitas dos próprios centros.

A Oracle, por sua vez, está comprometida em comprar aproximadamente 40 bilhões de dólares em chips Nvidia GB200 para equipar Abilene, em um contrato de 15 anos de arrendamento de capacidade para a OpenAI. Esse site, parte do Stargate, foi estimado para 1,2 GW quando completo.

No cenário mais amplo, a Microsoft segue estratégia híbrida entre comprar chips Nvidia e AMD, e introduzir seu próprio hardware Maia 200 para aliviar a pressão de oferta em cargas de IA. Essa combinação reforça a tese de que nenhuma única pilha de hardware atenderá toda a demanda de IA no curto prazo, o que explica a multiplicidade de parceiros que orbitam os projetos da OpenAI.

A base manufatureira também se reorganiza, com TSMC avançando para produzir chips de 3 nm no Japão, um movimento relevante para a cadeia de suprimentos de IA. Embora não seja um anúncio direto da OpenAI, o reforço de capacidade avançada em diferentes geografias reduz riscos de gargalos, melhora latência de fornecimento e cria alternativas para próximos nodes.

3. Energia, o novo gargalo estratégico

Executivos do setor vêm repetindo que o limitador, cada vez mais, não são apenas GPUs, é energia. Projeções do IEA citadas na Wikipédia indicam que o consumo elétrico global de data centers pode mais que dobrar até 2030, chegando a cerca de 945 TWh, perto de 3 por cento do consumo mundial previsto. Isso muda a conversa de IA de um tema puramente digital para uma disputa por gigawatts firmes de eletricidade.

A OpenAI vem combinando diferentes estratégias de energia e infraestrutura. Em 9 de janeiro de 2026, a empresa anunciou com a SoftBank um aporte de 1 bilhão de dólares na SB Energy e a assinatura de um arrendamento de 1,2 GW para um novo campus de data center, com a SB Energy também usando ferramentas da OpenAI internamente. Em paralelo, a SB Energy reportou pipeline de múltiplos gigawatts em solar e armazenamento com primeiras entregas em 2026.

No Texas, o projeto em Milam County foi divulgado como um campus de 1,2 GW com foco em solar e baterias, reforçando uma leitura, a OpenAI aposta pesado em energia renovável combinada com armazenamento para sustentar cargas densas de computação. Esse arranjo busca mitigar intermitência e modernizar a rede local.

A expansão também gera debates locais sobre tarifas e participação social. Em Michigan, a fornecedora DTE recebeu aprovação regulatória para destinar 1,4 GW a um site Stargate em Saline Township via procedimento ex parte, o que revoltou parte dos moradores. A concessionária argumenta que o contrato protege consumidores, exigindo pagamento por 80 por cento da capacidade contratada mesmo se o uso for menor, por 19 anos.

Enquanto isso, concorrentes diretos ilustram a direção do setor. A Meta fechou acordos para 6,6 GW de energia nuclear com Vistra, Oklo e TerraPower até 2035, sinalizando que, para hyperscalers de IA, contratos de energia firmes e de longo prazo tornaram-se tão estratégicos quanto comprar GPUs.

![Corredor com racks de servidores]

4. Onde os data centers estão surgindo e por quê

A escolha de locais segue uma matriz que combina acesso a energia, terrenos de grande porte, incentivos fiscais, água, mão de obra e malha de fibra. Em Abilene, a imprensa registrou que o campus já tem uma unidade operando com Oracle Cloud Infrastructure e Nvidia, e que novos locais incluem Shackelford County, Doña Ana County e um hub no Meio-Oeste. Em 2025, as próprias páginas da OpenAI detalharam os critérios, citando mais de 300 propostas analisadas em 30 estados.

Documentos públicos e reportagens indicam que a desenvolvedora Crusoe, parceira do projeto em Abilene, estruturou bilhões de dólares em financiamento e recebeu abatimentos de impostos locais, enquanto Oracle aparece como inquilina de prédios que depois alugam computação para a OpenAI. Esses mecanismos financeiros viabilizam construção rápida, embora gerem discussões sobre contrapartidas locais.

Para empresas usuárias, a implicação é direta, latência, disponibilidade e custo passam a variar por região e por fornecedor. Equipes de arquitetura precisam planejar workloads com consciência geográfica, adotando replicação ativa ativa onde houver SLOs rigorosos, e negociação inteligente de capacidade reservada quando o consumo é previsível.

5. O papel dos parceiros, de Oracle a Nvidia, e o efeito de rede

O desenho de parcerias lembra o início da web comercial, quando operadoras e fabricantes viabilizaram backbones e IXPs. Em 2025, a CNBC descreveu como Oracle, Nvidia e SoftBank montam um arranjo que soma centenas de bilhões, inclusive com a Oracle reorganizando liderança para priorizar a onda de IA e a Nvidia combinando fornecimento de chips com participação acionária. A CFO da OpenAI, Sarah Friar, reconheceu a necessidade de parceiros para atender a demanda.

O efeito de rede é duplo. Para a OpenAI, garante escala e diversificação de risco. Para parceiros, cria receitas recorrentes e posição privilegiada na próxima camada de software, desde serviços de treinamento e inferência até marketplaces de aplicações. Para clientes corporativos, surge a oportunidade de contratar capacidade de IA como utilidade, com SLAs mais claros e previsibilidade de custo.

No ecossistema mais amplo, a Microsoft adicionou seu chip Maia 200, mas deixou claro que continuará comprando Nvidia e AMD. Essa postura reforça a leitura de que heterogeneidade de hardware é o novo normal, e que arquiteturas e frameworks portáveis, como compilers multi backend, tornam-se vitais para evitar bloqueio tecnológico.

6. Riscos, contrapesos e o que as empresas devem fazer agora

O primeiro risco é macro, execução e sincronismo entre obras civis, chegada de energia, entrega de chips e ramp up de software. A experiência recente em Abilene e outros sites mostra que cronogramas podem avançar, mas dependem de cadeias complexas, financiamento e regulações estaduais. A cobertura da Financial Times sobre Abilene detalha contratos de longo prazo, capex de chips e leasing que amarram incentivos e responsabilidades por anos, com cronogramas até meados de 2026.

O segundo risco é energia, disponibilidade e aceitação social. A aprovação em Michigan ilustra o atrito potencial entre urgência de capacidade e procedimentos participativos. Equipes de políticas públicas e compliance precisam entrar cedo na conversa, mapeando marcos regulatórios por estado e antecipando compromissos de mitigação, eficiência hídrica e apoio à comunidade.

O terceiro risco é dependência de fornecedor. Mesmo com múltiplos parceiros, contratos desse porte criam acoplamentos técnicos e financeiros. A recomendação é diversificar níveis, de hardware e cloud a modelos de IA. Adoção de práticas multicloud, padrões abertos e observabilidade ponta a ponta reduz custo de mudança no médio prazo.

Aplicações práticas imediatas:

  • Planejamento de capacidade por cenários. Trate computação de IA como insumo industrial, com contratos de reserva, compromissos de consumo mínimo e métricas de utilização alvo. Use projeções trimestrais e revise mensalmente.
  • Engenharia para heterogeneidade. Padronize toolchains com suporte a múltiplos aceleradores e backends. Evite recursos proprietários que impeçam portabilidade de modelos. As movimentações de Microsoft, Nvidia e AMD mostram que a diversidade vai aumentar.
  • Energia e localização como parte do design. Negocie PPAs ou acordos de green credits quando possível, avalie regiões com melhor equilíbrio entre energia firme, impostos e fibra.
  • Sourcing de chips e lead times. Alinhe com fornecedores e integradores sobre janelas reais de entrega. A expansão de fabricação avançada em polos como Japão e EUA pode aliviar gargalos, mas há inércia de anos.

![Sam Altman em conferência]

7. O que muda para produtos e para a estratégia de IA

A combinação de mais chips, mais energia e redes melhor integradas permite ciclos mais rápidos de treinamento e iterações de produto. Com disponibilidade crescente, empresas podem mover workloads de RAG e agentes de processos de pilotos limitados para operações contínuas, com metas de custo por interação e tempo de resposta mais estáveis.

No entanto, a expansão de oferta não elimina a necessidade de eficiência. Otimizações como quantização, mistura de especialistas, caches de KV persistentes e triton kernels afinados seguirão relevantes para bater metas de custo. Esse equilíbrio entre investir em capacidade e reduzir desperdício técnico é onde times de plataforma geram mais valor.

A governança também acompanha a escala. Grandes contratos de energia e terra pedem contrapartidas sociais e ambientais, com metas públicas de água, eficiência energética e desenvolvimento de mão de obra. A OpenAI tem destacado programas de certificação e empregos qualificados ligados aos sites Stargate, um indicativo de que o tema virou prioridade de política industrial.

8. Horizonte de 12 a 24 meses, o que acompanhar

  • Entradas de energia e marcos elétricos por site. Monitorar interligações, subestações e PPAs, sobretudo nos novos polos do Texas e Wisconsin.
  • Entrega de racks Nvidia GB200 em escala e ramp up de clusters. O início da entrega em junho de 2025 cria referência para o ritmo em 2026.
  • Evolução dos acordos com SB Energy e cronograma de primeiras entregas solares com storage em 2026 para apoiar Milam County.
  • Licenciamentos e audiências públicas em estados com novos sites, lições de Michigan sobre transparência e aceitação local.
  • Movimentos de fabricantes como TSMC e AMD, e a dinâmica de chips próprios de hyperscalers, a exemplo do Maia 200.

Conclusão

As apostas massivas em IA, hardware e infraestrutura mostram um consenso, o próximo salto competitivo virá de quem transformar gigawatts, trilhões de parâmetros e logística de chips em capacidade útil para treinar e servir modelos confiáveis. O modelo Stargate de parcerias com Oracle, Nvidia e SoftBank viabiliza escala, diversificação de risco e velocidade de execução, mas impõe governança mais robusta e engenharia orientada a eficiência.

Para quem constrói produtos, a janela está aberta, e ela favorece equipes que unem engenharia para heterogeneidade, disciplina de custos e estratégia de dados. A recomendação é simples, trate IA como utilidade crítica, planeje capacidade com antecedência, evite dependências rígidas e conecte sua arquitetura às ondas de entrega de energia e chips que chegam nos próximos trimestres. Os sinais do mercado, dos GW anunciados à reorganização de fornecedores, apontam uma direção inequívoca, a infraestrutura agora decide o jogo.

Tags

IAInfraestruturaChipsEnergiaCloud