Meta planeja demissões de 20%+ enquanto custos de IA sobem, diz reportagem
Segundo reportagem baseada em fontes da Reuters, a Meta estuda cortar 20% ou mais do quadro para acomodar custos crescentes de IA e data centers. O que isso revela sobre a nova economia da computação?
Danilo Gato
Autor
Introdução
Meta demissões IA volta ao centro do debate com a notícia de que a Meta estuda demissões em massa de 20% ou mais, movimento associado ao salto nos custos de infraestrutura para inteligência artificial. A apuração, publicada em 14 de março de 2026, atribui a informação a fontes internas ouvidas pela Reuters. O número ainda não está fechado, mas a orientação a líderes para planejar cortes já teria sido dada.
A relevância do tema não é apenas corporativa. A Meta fechou 2025 com quase 79 mil funcionários e vem sinalizando um 2026 de despesas e capex maiores, com foco em data centers, contratos de nuvem e talentos de IA. Pressões assim afetam roadmap de produto, contratações, remuneração e prioridades competitivas diante de Google, Microsoft, Amazon e OpenAI.
Este artigo aprofunda quatro frentes. Primeiro, o que se sabe de factual sobre os planos de corte e por que os custos de IA subiram tão rápido. Segundo, como a estratégia de chips e data centers da Meta muda o jogo. Terceiro, quais áreas devem sentir mais e menos impacto. Quarto, o que líderes de tecnologia e times podem fazer hoje para atravessar um ciclo de eficiência sem perder capacidade de inovar.
O que se sabe sobre os cortes, o que ainda é incerto
A reportagem cita fontes que apontam para cortes de 20% ou mais, ainda sem data definida. Se confirmado nesse patamar, seria o maior enxugamento desde o “ano da eficiência”, que incluiu 11 mil demissões em novembro de 2022 e mais 10 mil em 2023. O racional atual combina duas forças, custos de IA em alta e a crença de que ferramentas de IA permitirão fazer mais com menos gente.
A fotografia de headcount é crucial. Documentos financeiros e a Associated Press indicam que a Meta terminou 2025 com 78.865 funcionários, cerca de 6% acima do ano anterior, mesmo após ajustes pontuais em 2025, como cortes de 600 vagas em IA no fim do ano. Esse crescimento se deu em áreas técnicas prioritárias, o que eleva o peso da remuneração como segunda maior linha de despesas em 2026.
Quanto à governança orçamentária, desde o fim de 2025 a empresa tem dito a investidores que 2026 terá capex e despesas significativamente maiores para atender a necessidades computacionais. Em paralelo, análises de mercado apontaram reequilíbrio de verbas, inclusive cortes de até 30% no orçamento de metaverso, com impacto potencial em equipes do Reality Labs. Tudo converge para uma priorização dura de IA, com possíveis efeitos cruzados em times adjacentes.
Por que os custos de IA explodiram tão rápido
Três vetores explicam a escalada. Primeiro, hardware de treinamento e inferência ficou mais caro e mais demandado. Nas últimas semanas, a Meta firmou um acordo para comprar milhões de chips Nvidia, de CPUs Grace a GPUs Blackwell e, futuramente, Rubin, confirmando uma estratégia com a Nvidia no centro. Isso expande capacidade, porém pressiona capex e o envelope de TCO por servidor, energia e rede.
Segundo, a própria Meta sinalizou que o investimento em data centers de IA seguirá acelerando em 2026, bem acima de 2025. Reportagens especializadas estimaram capex anual já na casa de dezenas de bilhões, com salto progressivo a partir de 2024. Esse ciclo não é exclusivo da Meta, ele ocorre entre os hiperescaladores, ainda que, no curto prazo, nem sempre converta em produtividade medida no nível da empresa.
Terceiro, componentes críticos como memória de alta largura de banda e ótica de interconexão encareceram com a demanda aquecida, o que eleva o custo por FLOP útil. Relatos de mercado citam encomendas abertas dos grandes para memória, prática que sustenta preços elevados em ciclos de escassez. Isso se reflete no custo total da pilha de IA, do treinamento à inferência em escala.
![Data center abstract image]
Estratégia de chips e data centers, implicações táticas
A guinada para uma arquitetura dominada por Nvidia tem implicações técnicas e de supply chain. De curto prazo, padronizar em GPUs Blackwell acelera a consolidação de toolchains e a portabilidade de workloads entre clusters. De médio prazo, o compromisso com milhões de unidades indica que a Meta pretende expandir não só treinamento de fundação, mas principalmente inferência de modelos em escala de produtos, como LLMs no feed, no Ads e em assistentes.
Essa estratégia precisa de data centers preparados. Em 2025, a Meta já vinha elevando suas projeções de capex de IA e avisando que 2026 seria “notavelmente maior”. A arquitetura de interconexão e a engenharia de energia, refrigeração e água formam o novo gargalo. À medida que clusters atingem faixas de gigawatts, cada decisão marginal sobre densidade, eficiência térmica e topologia de rede impacta Opex e resiliência.
No lado de pessoas, o discurso executivo ressalta ganhos de produtividade individuais com AI copilots internos e times mais enxutos. Em 29 de janeiro de 2026, o CEO afirmou que 2026 marcaria uma mudança dramática na forma de trabalho, com times mais planos e forte instrumentação com IA. Esse contexto ajuda a explicar por que um plano de cortes em larga escala pode ser apresentado como ajuste à nova alavanca de produtividade.
Quem deve ser mais afetado, quem tende a ser preservado
Com base nos sinais públicos, áreas não ligadas ao core de IA e ao motor de receita, como publicidade com IA e infra de treinamento e inferência, tendem a sofrer mais pressão por eficiência. Desde o fim de 2025, analistas e a imprensa vêm relatando redirecionamento de orçamento do metaverso para IA, com cortes potenciais ou realizados em divisões de XR e iniciativas com menor tração comercial de curto prazo.
Ao mesmo tempo, a Meta segue contratando e reconhecendo integralmente a remuneração de talentos de IA trazidos em 2025, o que eleva despesas de 2026. Essa combinação é típica de fases de reorquestração, cortes horizontais onde há sobreposição funcional e reforço vertical onde a demanda é crítica, como engenharia de plataforma, infra de dados, MLOps, segurança e privacidade aplicada a IA.
No pano de fundo, o mercado de tecnologia viveu um novo pico de cortes em 2026, correlacionado em parte à realocação provocada por automação e IA. Ainda que a tese de apocalipse de empregos não se sustente nos agregados, a redistribuição de vagas e competências é real, com empresas cortando onde a IA promete substituir ou escalar o trabalho, enquanto abrem posições para operar e governar esses sistemas.
![Equipe trabalhando com LLMs internos]
Como líderes devem navegar um ciclo de eficiência movido por IA
- Orçamento com base em unidade econômica. Vincular cada dólar de GPU a métricas de valor, seja redução de custo por requisição de inferência, seja lift incremental em anúncios ou retenção de usuários. Ao mensurar custo por token, por imagem ou por ranking, decisões de otimização ganham clareza e reduzem desperdício de computação.
- Arquiteturas modulares. Separar camadas de base, adaptação e inferência para permitir que modelos menores ou especializados substituam modelos gerais onde a qualidade permite, o que alivia capex futuro.
- Otimização de dados. Investir em pipelines que melhorem qualidade de dados, deduplicação, sintéticos e avaliação contínua, já que boa curadoria reduz tamanho de modelo necessário para atingir a mesma métrica.
- Engenharia de eficiência. Quantização, pod-partitioning, sparsity e cache de KV são hoje tão estratégicos quanto o próprio modelo. Estimar ROI de cada técnica no custo por requisição.
- Planejamento de capacidade. Amarrar aquisições de chips a marcos de software, evitando comprar compute que ficará ocioso por falta de modelo pronto ou de produto que o justifique.
Essas práticas não anulam a necessidade de capex elevado, porém evitam o clássico erro de empilhar custo antes de provar valor. O próprio mercado financeiro já premia quem mostra disciplina, e pune guidance de despesas que sobe sem contrapartida clara de receita. A Meta vive esse escrutínio desde o fim de 2025, quando sinalizou despesas maiores em 2026 e viu volatilidade no papel.
O que isso significa para produtos e roadmap
No curto prazo, a prioridade recai sobre utilidades que monetizam rápido. Espera-se aceleração de testes com LLMs no Ads, otimização de criativos, segmentação e lances, além de recomendação com modelos multimodais no feed e no Reels. Em paralelo, a empresa vem apostando em uma vaga de superinteligência aplicada, ajustando portfólio de chips e ampliando parques de data center para suportar inferência on-line em escala de bilhões de usuários.
Essa mesma priorização pode adiar lançamentos menos conectados a receita de curto prazo. Sinais de corte de orçamento no metaverso e reordenação do Reality Labs aparecem de forma recorrente desde o fim de 2025. Em um ambiente onde custo de capital e energia informam cada decisão, projetos com horizonte de retorno mais longo tendem a sofrer compasso de espera.
Efeitos colaterais, pessoas e cultura
Mesmo quando a tese é eficiência, ciclos de demissões geram perda de conhecimento tácito, ruptura de confiança e atenção dispersa. A Meta não é exceção. O desafio é proteger domínios críticos, preservar guardrails de segurança e privacidade e sustentar cadência de entrega enquanto times se reagrupam. Programas de upskilling e realocação interna podem mitigar dano, sobretudo onde IA amplia o raio de ação de engenheiros e analistas.
Outra frente é comunicação. Transparência sobre critérios, métricas e prazos reduz ansiedade e boatos. O histórico recente mostra que ajustes seletivos continuam, de bônus a realocação de equipes, enquanto a empresa corre para instalar capacidade e provar retorno do ciclo de IA. O equilíbrio entre cortar e contratar para IA, reconhecido pela própria Meta, é a corda bamba de 2026.
Benchmarks externos para acompanhar
- Capex e despesas totais por trimestre. A Meta já indicou 2026 como ano de forte investimento, o que deve aparecer em capex de data centers e equipamentos.
- Sinais de compras de chips. Acordos com Nvidia em volume, prazos de entrega e mix de GPU para inferência indicarão maturidade do roadmap.
- Headcount e composição. Mudanças em áreas não core, como XR, e reforço em IA, MLOps e plataformas de dados, continuarão sinalizando prioridades.
- Resultado por produto. O quanto de lift em Ads e engajamento virá de melhorias de IA, e a que custo computacional por requisição. Comentários de executivos e relatórios ajudam a ler essa conta.
Conclusão
Planos de demissões em massa de 20% ou mais na Meta, conectados a custos crescentes de IA, refletem a fase mais cara da corrida por computação. O pivô para um stack centrado em Nvidia e a expansão de data centers explicam a pressão no orçamento. A questão não é se investir, e sim como comprovar retorno em produto e receita com disciplina de engenharia e de unidade econômica.
Para líderes e times, o jogo está em navegar eficiência sem amputar futuro. Medir valor por token, otimizar arquitetura e dados, e atrelar compute a marcos de software aumenta a chance de sair desse ciclo com mais capacidade de inovar, menos gordura estrutural e menos ruído organizacional. Quem conseguir, transforma o custo inevitável de IA em vantagem competitiva sustentável.