Falcon 9 decolando, simbolizando acesso a órbita para data centers espaciais
Inteligência Artificial

Starcloud apoiada pela Nvidia treina 1º IA no espaço

O primeiro modelo de IA treinado em órbita marca um passo concreto rumo a data centers orbitais, com potencial para aliviar o gargalo de energia e refrigeração na Terra e destravar novas aplicações em tempo quase real.

Danilo Gato

Danilo Gato

Autor

9 de janeiro de 2026
12 min de leitura

Introdução

Starcloud treina primeiro modelo de IA no espaço, um marco que desloca a fronteira do que se entende por infraestrutura de computação. Em novembro de 2025, a startup colocou em órbita o satélite Starcloud-1, equipado com uma GPU Nvidia H100, e confirmou em dezembro o primeiro treinamento de um modelo de linguagem em ambiente espacial, algo inédito até então. A conquista foi reportada pela CNBC com base em entrevistas e imagens do experimento.

A importância do tema vai além do efeito demonstração. Com o consumo elétrico de data centers projetado pela IEA para mais que dobrar até 2030, a pressão por energia e refrigeração torna a ideia de data centers orbitais mais do que uma curiosidade. Energia solar contínua e rejeição de calor por radiadores no vácuo são atrativos evidentes, ainda que acompanhados de desafios de custo de lançamento, manutenção e latência.

Este artigo analisa o que foi feito em órbita, os fundamentos técnicos por trás do conceito, os sinais de mercado que emergem, os obstáculos reais e por que o movimento da Starcloud, apoiada pela Nvidia, inaugura uma fase prática na corrida por data centers orbitais.

O que, de fato, aconteceu em órbita

A Starcloud lançou em novembro de 2025 o Starcloud-1, satélite de aproximadamente 130 libras, com uma GPU Nvidia H100. Em dezembro, confirmou o primeiro treinamento de um LLM, o NanoGPT, no espaço, usando o corpus de Shakespeare. Além disso, executou consultas a um modelo Gemma, da Google, também em órbita. A CNBC relata que se trata do primeiro treinamento de modelo em órbita e a primeira execução de um LLM em uma GPU Nvidia de alto desempenho no espaço.

O experimento gerou respostas em inglês elisabetano no caso do NanoGPT, coerentes com o treino em Shakespeare, e frases de saudação do Gemma como “Greetings, Earthlings”, registradas e divulgadas pela empresa. A cobertura de tecnologia regional reforçou detalhes operacionais e próximos passos do programa, incluindo uso futuro de dados SAR da Capella Space para processamento a bordo.

A própria Starcloud defende publicamente a migração de parte da computação pesada para órbita, alegando benefícios de custo energético, escalabilidade e implantação rápida sem as restrições de licenciamento e disponibilidade de energia típicas na Terra.

![Falcon 9 na decolagem, representando o avanço do acesso orbital]

Por que data centers orbitais ganham tração agora

  • Energia e refrigeração. A IEA projeta que o consumo elétrico de data centers pode dobrar para cerca de 945 TWh em 2030, impulsionado em grande parte por IA e servidores acelerados. Isso pressiona redes elétricas, encarece projetos e reforça o apelo por fontes estáveis de energia, como a solar fora da atmosfera, e por rejeição de calor por radiadores no espaço.
  • Gargalo local. A concentração de capacidade em poucos clusters nos Estados Unidos e Europa gera impactos locais de demanda, conexões atrasadas e competição por contratos de energia. Parte do crescimento de 2024 a 2030 em alguns cenários é atendido por renováveis, mas o papel de gás e até carvão aumenta quando a expansão acelera, algo que levanta bandeiras de custo e emissões.
  • Vetores de mercado. Além da Starcloud, iniciativas e declarações públicas apontam atenção crescente ao tema. Reuters citou esforços de Blue Origin em tecnologia para data centers orbitais e ambições de players como SpaceX, enquanto líderes do setor, como Jeff Bezos, descrevem horizontes de 10 a 20 anos para instalações em grande escala.

Em resumo, Starcloud treina primeiro modelo de IA no espaço no momento em que o setor busca alivio para um conjunto de restrições que não são teóricas, são sentidas nos cronogramas e orçamentos de 2025 e 2026.

O hardware, a rede e o software, traduzindo o que muda na prática

O Starcloud-1 carrega uma Nvidia H100, classe de GPU que domina treinamento de IA em terra. Trazer esse perfil de compute para o espaço muda a conversa, porque amplia o conjunto de workloads viáveis in-orbit, do treinamento de modelos pequenos e finetuning ao processamento de dados gerados no espaço, como SAR, hiperespectrais e telemetria de constelações.

  • Compute. A H100 já provou robustez em clusters terrestres, e o ponto do experimento é validar operação em radiação, vibração térmica e ambiente de vácuo. A própria Wikimedia tem imagens públicas do hardware, ilustrando a classe de GPU usada no projeto.
  • Rede. A latência Terra-órbita continua sendo fator para aplicações interativas, mas para cargas onde a computação acompanha a origem do dado, como sensoriamento remoto, o ganho pode ser expressivo. Reduz-se o backlog de downlink e a dependência de janelas de estação terrena. O plano anunciado inclui processar dados SAR da Capella diretamente no satélite, um caso típico de valor.
  • Software. O fato de treinar NanoGPT em órbita, ainda que pequeno, valida toolchains, tolerância a falhas e pipelines de dados e modelo que podem ser escalados para finetuning sob demanda. A execução de Gemma reforça compatibilidade com modelos abertos modernos.

![Nvidia H100, classe de GPU usada no Starcloud-1]

Escala, custos e engenharia térmica, o núcleo do business case

A tese de valor se apoia em três pilares, que o white paper e as declarações públicas da Starcloud enfatizam: acesso a energia solar contínua, rejeição radiativa de calor e liberdade para escalar sem travas locais de licenciamento e grid. Em sua comunicação, a empresa fala em gigawatts de capacidade e clusters com módulos solares e radiadores de quilômetros de extensão. O WEF também apresentou a startup como Technology Pioneer 2025, reforçando a narrativa de escala.

A pergunta-chave é o custo total de propriedade por FLOP útil. Lançamento, manufatura de estruturas leves e robustas, rad-hard parcial do stack, e manutenção em órbita pesam na conta. Análises independentes e falas públicas de líderes de espaço e nuvem admitem que, no curto prazo, empreendimentos de 1 GW exigiriam massa e área solar gigantescas, com CAPEX de dezenas de bilhões de dólares somente em geração, antes de radiadores e compute, embora o aprendizado e a escala possam reduzir esse valor ao longo da década.

O contraponto é que, em terra, o custo por megawatt foi inflacionado por filas de conexão, competição por PPA e aquisições em regiões de energia firme. Para cargas contínuas de IA, o delta de custo energético por watt útil em órbita pode fechar mais rápido do que parece, se a curva de lançamentos e manufatura espacial mantiver o ritmo dos últimos anos. Esta é uma inferência baseada nas declarações da Starcloud sobre custos de energia e nos dados da IEA sobre a pressão de demanda.

Concorrência e ecossistema, quem mais está se mexendo

O movimento da Starcloud ocorre em um cenário no qual Big Tech e aeroespacial sondam ativamente o tema. Reportagens citam iniciativas de Blue Origin para data centers em órbita e planos de upgrades de satélites para cargas de computação por parte da SpaceX. O Guardian noticiou planos da Google para protótipos de data centers espaciais, reforçando o interesse transversal.

Ao mesmo tempo, o termômetro regulatório e de aceitação pública começa a subir, com preocupações sobre poluição luminosa, tráfego orbital e governança de dados. Morgan Stanley, citado pela CNBC, pontua riscos de radiação, manutenção e regulações. Esses riscos exigem roadmap de mitigação desde o design.

Vale notar que mapeamentos independentes apontam que, até o fim de 2025, havia essencialmente um único nó operacional classificado publicamente como data center orbital, o Starcloud-1. Outras iniciativas estão em prototipagem e pré-operacional. Isso indica estágio inicial, mas com sinais fortes de aceleração em 2026 e 2027.

Aplicações de negócio viáveis nos próximos 24 meses

  • Processamento a bordo de dados SAR e outras cargas de sensoriamento. Valor direto para defesa, agricultura, energia, seguros e resposta a desastres. A Starcloud já sinalizou uso de dados da Capella.
  • Finetuning e inferência de modelos médios, onde latência de ida e volta é tolerável e o custo de downlink de dados crus é alto. Casos incluem sumarização, classificação e geração de relatórios técnicos a partir de telemetria orbital.
  • Edge compute espacial para constelações, reduzindo tráfego para solo e acelerando decisões no loop. Em geral, quanto mais a fonte do dado está no espaço, maior a vantagem de computar lá.

Para ilustrar o potencial de SAR, a Capella Space mantém um acervo aberto com imagens de alta resolução, usado por pesquisadores e empresas. Isso reforça como análises em órbita podem reduzir tempos de resposta em emergências e monitoramento crítico.

Desafios técnicos e regulatórios, o que precisa ser resolvido

  • Radiação e confiabilidade. GPUs de alto desempenho não foram projetadas para anos em órbita baixa sob radiação. Mitigações incluem blindagem, detecção e correção de erros, redundância e scrubbing de memória. A prova de conceito da Starcloud sinaliza viabilidade inicial, mas confiabilidade em escala ainda precisa de dados de vida útil.
  • Dissipação térmica. Radiadores de grande área são essenciais. O dimensionamento correto de painéis e trocadores define a densidade de compute por módulo. Estudos e entrevistas públicas sugerem estruturas de quilômetros para gigawatts, que exigem manufatura espacial eficiente.
  • Latência e backhaul. Mesmo com laser links, haverá limites físicos e de custo. O truque é deslocar a computação para onde os dados nascem e só enviar resultados, algo que o case da Capella ilustra bem.
  • Tráfego orbital e lixo espacial. Autorizações, coordenação de slots e desorbitamento seguro são pré-requisitos de escala. Bancos e analistas têm destacado esse risco em seus memorandos, reforçando a necessidade de padrões e monitoramento.

O que muda para CIOs, CTOs e arquitetos de IA em 2026

  • Planejamento de workload híbrido Terra–órbita. Começa com workloads que nascem no espaço, mas em poucos anos pode incluir jobs de treino incremental e finetuning. O planejamento de dados precisa considerar que parte do processamento acontecerá upstream.
  • Custos comparativos por watt e por FLOP. Em regiões com filas de conexão, upgrades caros de subestações e PPA disputado, o TCO orbital pode se tornar competitivo em verticais específicas. Acompanhar roadmaps de lançadores e reusabilidade é essencial para sensibilidade de custos. Esta é uma inferência apoiada por projeções de demanda da IEA e pelos argumentos de custo energético apresentados pela Starcloud.
  • Sourcing e compliance. Contratos precisarão de cláusulas sobre soberania, localização lógica de dados, retenção e trilhas de auditoria. Para cargas sensíveis, a criptografia ponta a ponta e execução confiável serão diferenciais.

O contexto energético, por que a pressão por alternativas cresce

Relatórios recentes da IEA mostram que data centers responderam por cerca de 1,5 por cento do consumo global de eletricidade em 2024 e podem ultrapassar 945 TWh até 2030. Nos Estados Unidos, a demanda de data centers deve representar quase metade do crescimento do consumo elétrico até 2030. Em cenários de forte aceleração, uma parcela relevante desse adicional vem de fontes fósseis por causa de filas de conexão e limitações de rede, elevando o custo e o impacto ambiental.

A conclusão é pragmática. Se o setor precisa de magnitude e regularidade de energia, migrar parte da computação para um ambiente com sol constante e frio radiativo tem lógica econômica para certos perfis de workload. Starcloud treina primeiro modelo de IA no espaço exatamente quando essa lógica começa a ser testada em hardware real.

O que vem a seguir para a Starcloud

De acordo com relatos, a empresa planeja o Starcloud-2 com várias GPUs H100 e chip Blackwell B200, e mira um Starcloud-3 de porte maior, com 100 kW e integração com lançadores de alta capacidade. A empresa também citou parcerias para oferecer uma camada de nuvem que permita que clientes implantem workloads diretamente em órbita. Esses pontos, apesar de ambiciosos, estão alinhados com uma cadência de lançamentos cada vez mais frequente no setor, como mostram os números recentes de voos da SpaceX.

A visão de longo prazo da Starcloud inclui data centers orbitais de múltiplos gigawatts, com arranjos de painéis solares e radiadores em escala quilométrica. O World Economic Forum registrou essa ambição em vídeo e materiais públicos, embora a maturidade tecnológica para essa escala ainda dependa de progresso em estruturas leves, montagem em órbita e queda de custos de lançamento.

Reflexões e insights

  • Ponto de inflexão. Provas de conceito raramente mudam sozinhas uma indústria, mas abrem janelas de viabilidade técnica. O passo da Starcloud é esse tipo de gatilho. Se a confiabilidade em órbita se confirma e o custo por watt útil cai, a curva de adesão pode ser abrupta.
  • Estratégia de dados. Processar o dado onde ele nasce é uma máxima que vale para borda terrestre e se estende ao espaço. O case de SAR é o exemplo didático. Quando o custo de trazer dados crus para baixo supera o de processar e enviar somente os insights, a conta fecha.
  • Portfólio energético. Mesmo com avanços em PPA renovável e nuclear de pequena escala, a demanda por IA cresceu mais rápido que a expansão de geração. A órbita funciona como válvula de escape para workloads específicos, sem competir pelos mesmos megawatts em regiões congestionadas.

Conclusão

A validação de que é possível treinar e executar modelos em uma GPU de alto desempenho no espaço altera o debate. Não se trata mais de um conceito distante. Starcloud treina primeiro modelo de IA no espaço e entrega um argumento técnico testado para que data centers orbitais entrem no planejamento de médio prazo de setores que dependem de IA e sensoriamento remoto.

Ao mesmo tempo, o caminho é desafiador. Custos de lançamento, engenharia térmica em grande escala, confiabilidade e marcos regulatórios precisam evoluir em paralelo. A boa notícia é que os incentivos estão alinhados, a demanda energética aperta os orçamentos em terra e a engenharia espacial vive um ciclo de redução de custos sem precedentes. A probabilidade de ver mais cargas de IA em órbita entre 2026 e 2027 é alta, e o impacto prático começará pelos casos nos quais os dados já nascem no espaço.

Tags

InfraestruturaEspaçoData Centers