Yann LeCun em evento acadêmico, 2025
Inteligência Artificial

Yann LeCun critica Alexandr Wang e prevê saídas na Meta

No centro da corrida por superinteligência, Yann LeCun contesta a aposta de US$14 bilhões da Meta na Scale AI e questiona a liderança de Alexandr Wang, enquanto antecipa novas baixas na equipe de IA.

Danilo Gato

Danilo Gato

Autor

3 de janeiro de 2026
9 min de leitura

Introdução

Yann LeCun critica Alexandr Wang e prevê saídas na Meta. A crítica veio à tona em 2 de janeiro de 2026, quando LeCun, pioneiro da IA e ex cientista chefe de IA da empresa, chamou Wang de inexperiente e disse esperar mais desligamentos na área de IA da Meta, em matéria do Business Insider que repercute uma entrevista do executivo ao Financial Times. O pano de fundo é a reestruturação que elevou Wang, cofundador da Scale AI, a líder do Superintelligence Labs após um investimento de US$14 bilhões da Meta na startup.

A controvérsia se liga a duas frentes. Primeiro, a mudança de rumo da Meta, que aproximou a companhia da Scale AI e de um roadmap centrado em grandes modelos de linguagem. Segundo, o desgaste interno após o lançamento do Llama 4 e as acusações públicas de que a empresa teria usado variantes experimentais para brilhar em rankings, algo que a liderança da Meta nega. A combinação de estratégia, política de talentos e metodologia de avaliação explica por que esse episódio importa para o mercado.

O que exatamente LeCun disse e por que isso importa

A reportagem do Business Insider registra LeCun chamando Alexandr Wang de inexperiente em pesquisa e prevendo novas saídas na equipe de IA. Além disso, relata sua visão de que LLMs são um caminho limitado para atingir superinteligência, argumento que o pesquisador tem reforçado em entrevistas recentes. O próprio BI atribui a avaliação a uma conversa do FT, onde LeCun detalha seu ceticismo e descreve planos para sua nova iniciativa, Advanced Machine Intelligence.

Dois fatos elevam o peso dessa crítica. Primeiro, LeCun foi a face acadêmica mais proeminente da Meta em pesquisa avançada e, por anos, defendeu uma rota além de modelos puramente gerativos. Segundo, a crítica não é abstrata, ela acontece depois da chegada de Wang para chefiar o Superintelligence Labs, o que sinaliza divergência real de direção tecnológica dentro da empresa. Quando um líder científico questiona a aptidão de um novo chefe, o mercado lê como alerta sobre execução, cultura e retenção de talentos.

Como Wang assumiu o Superintelligence Labs e o papel do cheque de US$14 bilhões

A virada começou em meados de 2025, quando Meta acertou um investimento da ordem de US$14 bilhões na Scale AI, estrutura que, segundo a CNBC e a Forbes, incluiu uma fatia de 49 por cento e um acordo comercial multianual, levando Wang a liderar um novo laboratório de superinteligência na Meta. A Los Angeles Times detalhou que Jason Droege assumiu como CEO interino da Scale e que Wang permaneceu no conselho. O objetivo prático do aporte foi garantir capacidade de dados, avaliação e infraestrutura para acelerar a agenda de IA da Meta.

Esse desenho tem precedentes recentes, a exemplo de grandes apostas não totalitárias em startups de IA para contornar antitruste e ganhar acesso preferencial a tecnologia e time. No curto prazo, evita integração pesada e mantém a startup com autonomia relativa. No longo prazo, pressiona por resultados rápidos, já que a governança e os incentivos são reformatados em torno de metas de produto. Para a Meta, foi um recado de urgência para rivalizar com OpenAI, Google e novos players como DeepSeek.

Llama 4, o ruído dos benchmarks e a confiança interna

A fricção sobre o Llama 4 acendeu luzes amarelas. Em abril de 2025, a Meta lançou variantes como Maverick e Scout com forte ênfase em resultados de ranking, mas a comunidade notou discrepâncias entre o modelo que brilhou no LM Arena e a versão liberada ao público. O VP de GenAI da Meta, Ahmad Al Dahle, negou manipulação de testes e disse que não houve treino em conjuntos de teste, atribuindo inconsistências a ajustes de implantação. A controvérsia, porém, levou a revisões de políticas no LM Arena e a questionamentos sobre transparência de benchmarks.

O The Register e a TechCrunch documentaram a sequência. A Meta reconheceu que a instância que ficou bem colocada era um chat experimental, diferente da versão aberta. Embora não seja ilegal usar variantes otimizadas, falta de clareza alimenta a percepção de que métricas públicas viraram peça de marketing, o que corrói a confiança interna e externa. Em organizações grandes, esse tipo de ruído costuma disparar reavaliações gerenciais e reorganizações, exatamente o que culminou no Superintelligence Labs.

![Yann LeCun em 2025]

A tese de LeCun, do V JEPA ao AMI, e o choque com a estratégia LLM pilled

No FT, LeCun defende que inteligência depende de aprendizado e interação com o mundo físico, não de predição de tokens. Seu foco recente inclui arquiteturas como V JEPA e a noção de Advanced Machine Intelligence, um caminho de modelos que aprendem representações do mundo, antecipam causas e efeitos e planejam com base em objetivos. Essa visão contrasta com o pragmatismo de produto centrado em LLMs que domina parte da indústria.

Há uma leitura prática aqui. LLMs funcionam muito bem em tarefas de linguagem, atendimento e assistentes, o que explica a ênfase da Meta em produtos generativos. Mas se o objetivo declarado é superinteligência, os limites de LLMs puros, como ausência de persistência robusta de memória, noções fracas de causalidade e planejamento confiável, exigem hibridizações com agentes, modelos multimodais com memória de mundo e aprendizado auto supervisado em escala. É esse o debate técnico que a crítica de LeCun tenta reacender.

Ilustração do artigo

O impacto no pipeline de talentos, cultura e pesquisa fundamental

Quando um grupo dirigente aposta em velocidade de produto e outro sustenta pesquisa de longo prazo, o atrito aparece em promoções, distribuição de computação e prioridades. Em 2025, reportagens da Fortune já captavam o mal estar na FAIR, o laboratório de pesquisa fundamental da Meta, após saídas e a migração de prestígio para times de produto. Mesmo com a defesa de LeCun de que aquilo era um novo começo, o recado foi claro, compute e holofotes estavam mudando de lugar.

A previsão de novas saídas feita por LeCun não é chute no escuro. A literatura de gestão mostra que fases de pivô estratégico, combinadas a dúvidas sobre integridade de métricas internas, elevam a propensão a desligamentos de pesquisadores seniores. Some a isso a chegada de Wang com mandato forte e metas agressivas, e o resultado usual é realocação de poder, prioridades e, sim, rotação de pessoal. Para o ecossistema, esse movimento realimenta a criação de startups de base científica e aumenta a competição por infraestrutura e datasets.

Exemplos práticos para executivos de produto e times de IA

Para empresas que constroem em cima de modelos da Meta, três lições práticas se destacam. Primeira, avaliar modelos por mais de um critério, combinando benchmarks públicos com testes proprietários de dados internos, porque variações entre versões experimentais e estáveis são reais. Segunda, validar consistência de desempenho por ambiente de inferência e provedor, já que diferenças de engenharia influenciam qualidade. Terceira, exigir release notes claras com hiperparâmetros, checkpoints e datasets de avaliação, reduzindo ambiguidade quando um modelo se destaca em rankings, mas não replica no seu caso de uso.

Para líderes de engenharia, a recomendação é construir um pipeline de avaliação com três camadas. Uma camada de sanidade com testes rápidos de regressão, outra de tarefas de missão crítica com datasets internos e métricas customizadas, e uma terceira de avaliação humana para medir utilidade em cenários reais. Em momentos de turbulência estratégica, esse pipeline evita paralisia ao trocar um modelo por outro, e dá evidência objetiva quando o marketing e a prática divergem.

Competição, orçamento e o custo real dos dados

O cheque da Meta na Scale AI não foi sobre glamour, e sim sobre gargalos de dados e avaliação. A CNBC e a Forbes destacaram que o acordo poderia consumir parcela relevante do orçamento de IA da Meta por cinco anos, em troca de acesso privilegiado a curadoria, rotulagem e avaliação. Isso sinaliza uma tese crua, dados de qualidade, com avaliação sistemática, são o verdadeiro combustível, não apenas GPUs. Para concorrentes, é um alerta sobre capacidade de aquisição de dados e times de avaliação como vantagem competitiva duradoura.

No tabuleiro geopolítico, a leitura é igualmente direta. Wang vocaliza a necessidade de mais computação e infraestrutura nos Estados Unidos para competir com a China. Ao amarrar a Scale, a Meta não apenas assegura fornecimento de dados, também captura inteligência de mercado e práticas de avaliação acumuladas com múltiplos clientes, incluindo governo. É uma jogada que encurta ciclos de produto e melhora engenharia de qualidade.

![Logo da Scale AI]

Como esse debate deve evoluir em 2026

Três cenários são prováveis. Primeiro, a Meta dobrará a aposta em LLMs enquanto desenvolve, em paralelo, camadas de memória e agentes que aproximem o sistema de uma arquitetura de mundo, conciliando urgência de produto com pesquisa exploratória. Segundo, o Superintelligence Labs, sob Wang, medirá sucesso por ciclos de entrega e impacto de produto, o que pode acelerar a saída de perfis mais acadêmicos e atrair engenheiros de produto e infra com perfil hands on. Terceiro, a tese de LeCun vai encontrar eco fora da Meta, alimentando startups e centros de pesquisa com foco em modelos que aprendem com vídeo, espaço e interação física, e não só linguagem.

Para o mercado, 2026 deve consolidar duas frentes. Uma frente LLM produto first, orientada a custo por token, latência e cobertura multiidioma. Outra frente world models first, com métricas como previsibilidade causal, memória de longo prazo e simulação. Empresas que souberem navegar as duas frentes, com engenharia de dados forte e governança de avaliação, vão capturar mais valor. Quem apostar apenas em manchetes de leaderboard pode ficar preso em proof of concepts intermináveis, sem ROI convincente.

Conclusão

A crítica de Yann LeCun a Alexandr Wang e a previsão de saídas na Meta são sinais de tensão criativa, não o fim do jogo. Quando estratégia corporativa, ciência e produto se entrelaçam, discordâncias públicas revelam o que realmente está em disputa, velocidade de entrega, definição de metas e visão técnica sobre como chegar a sistemas realmente inteligentes. Para líderes de tecnologia, o recado é simples, estratégia de IA exige convicção técnica aliada a disciplina de avaliação e dados.

Os próximos trimestres dirão se a Meta, com Wang no comando do Superintelligence Labs e um acordo bilionário com a Scale AI, consegue conciliar ambição de superinteligência com execução confiável. Enquanto isso, a tese de LeCun, centrada em aprendizado de mundo, continuará pressionando por arquiteturas além do texto. Quem acompanha o setor deveria testar, medir e decidir, sem se deixar levar por ruído de benchmark.

Tags

MetaYann LeCunAlexandr WangScale AILLMs