Escrito por: Ada , Deep Tide TechFlow
Pang Ruoming saiu antes mesmo de ter a oportunidade de se instalar na sua estação de trabalho na Meta.

Em julho de 2025, Zuckerberg recrutou este engenheiro chinês mais procurado na área de infraestrutura de IA da Apple com um pacote de compensação plurianual no valor total de mais de 200 milhões de dólares. Pang Ruoming foi designado para o Meta Superintelligence Lab para ser responsável pela construção da infraestrutura para modelos de IA de próxima geração.
Sete meses depois, a OpenAI recrutou-o.
Segundo a The Information, a OpenAI lançou uma campanha de recrutamento de vários meses para Pang Ruoming. Embora Pang tenha dito aos colegas que estava "muito feliz a trabalhar na Meta", acabou por optar por sair. A Bloomberg informou que o seu pacote de compensação na Meta estava vinculado a marcos, e sair mais cedo significava desistir da maioria das suas opções de ações não adquiridas.
200 milhões de dólares não conseguem comprar sete meses de lealdade.
Esta não é uma simples história de mudança de emprego.
Pang Ruoming não foi o primeiro a sair.
Na semana passada, Mat Velloso, líder de produto para a plataforma de desenvolvedores nos Superintelligence Labs da Meta, também anunciou a sua saída. Ele juntou-se à Meta em julho passado vindo do Google DeepMind e ficou por menos de oito meses. Indo mais atrás, em novembro de 2025, o vencedor do Prémio Turing e cientista-chefe de IA Yann LeCun, que esteve com a Meta durante 12 anos, anunciou a sua saída para iniciar o seu próprio negócio, trabalhando no "modelo mundial" que há muito defendia. Russ Salakhutdinov, um protegido-chave de Geoffrey Hinton e vice-presidente de pesquisa de IA generativa na Meta, também anunciou recentemente a sua saída.
Para compreender a fuga de talentos na Meta AI, devemos primeiro entender o quão prejudicial foi o Llama 4.
Em abril de 2025, a Meta fez um lançamento de alto perfil dos modelos Scout e Maverick na série Llama 4. As especificações oficiais eram impressionantes, alegando que superavam completamente o GPT-4.5 e o Claude Sonnet 3.7 em testes de referência principais como MATH-500 e GPQA Diamond.
No entanto, este modelo emblemático, que incorpora as ambições da Meta, rapidamente revelou as suas verdadeiras cores em testes cegos independentes realizados por terceiros na comunidade de código aberto, com as suas capacidades reais de generalização e inferência ficando muito aquém do desempenho anunciado. Perante fortes críticas da comunidade, o cientista-chefe de IA Yann LeCun acabou por admitir que a equipa "usou diferentes versões do modelo para executar diferentes conjuntos de testes durante a fase de testes, a fim de otimizar a pontuação final."
Nas rigorosas comunidades académicas e de engenharia de IA, isto cruzou uma linha vermelha imperdoável. Por outras palavras, a equipa treinou o Llama 4 como um "candidato de cidade pequena" que só conseguia resolver questões de exames anteriores, em vez de um verdadeiro "aluno de topo" avançado com inteligência de ponta. É como mostrar-lhe um exame de matemática e um exame de programação — cada teste individual parece forte, mas não são na realidade o mesmo modelo.
No meio académico da IA, isto chama-se "cherry picking", enquanto na educação orientada para exames, chama-se "fazer o exame em nome de outros".
Para a Meta, que sempre se apresentou como um "farol de código aberto", esta turbulência destruiu diretamente o seu ativo mais valioso de confiança dentro do ecossistema de desenvolvedores. O seu custo imediato foi que Zuckerberg "perdeu completamente a confiança" nos fundamentos de engenharia da equipa GenAI original, preparando assim o cenário para a subsequente nomeação de executivos de alto nível e a marginalização dos departamentos de infraestrutura central.
Ele gastou entre 14,3 mil milhões e 15 mil milhões de dólares para adquirir uma participação de 49% na empresa de rotulagem de dados Scale AI, trazendo o CEO de 28 anos da Scale AI, Alexandr Wang, como Diretor de IA da Meta e estabelecendo o Meta Superintelligence Lab (MSL). O vencedor do Prémio Turing LeCun foi obrigado a reportar a este jovem de 28 anos na nova estrutura. Em outubro, a Meta despediu aproximadamente 600 postos de trabalho no MSL, incluindo membros da divisão de pesquisa FAIR que LeCun fundara.
O modelo emblemático Llama 4 Behemoth, originalmente planeado para lançamento no verão de 2025, foi repetidamente adiado, do verão para o outono, e finalmente colocado em espera indefinidamente.
A Meta mudou o seu foco para desenvolver um modelo de texto de próxima geração com o codinome "Avocado" e um modelo de imagem/vídeo com o codinome "Mango". O Avocado está alegadamente concebido para competir com o GPT-5 e o Gemini 3 Ultra. Originalmente agendado para lançamento no final de 2025, foi adiado para o primeiro trimestre de 2026 devido a testes de desempenho insatisfatórios e otimização de treino. A Meta está a considerar lançá-lo como código fechado, abandonando a tradição de código aberto da série Llama.
A Meta cometeu dois erros fatais com os seus modelos de IA. Primeiro, fabricou dados de referência, o que destruiu diretamente a confiança da comunidade de desenvolvedores. Segundo, espremeu um departamento de pesquisa fundamental como o Fair, que requer uma década de trabalho dedicado, numa organização de produto focada em KPIs trimestrais. Estas duas ações combinadas são a causa raiz da sua atual fuga de talentos.
O talento está a sair, e há problemas com os chips.
Segundo a The Information, a Meta cancelou o seu projeto de chip de treino de IA mais avançado, que estava em desenvolvimento interno, na semana passada.
O projeto de chip de desenvolvimento próprio da Meta chama-se MTIA (Meta Training and Inference Accelerator). O roteiro inicial da empresa é ambicioso: MTIA v4, com o codinome "Santa Barbara", v5, com o codinome "Olympus", e v6, com o codinome "Universal Core", estão planeados para entrega entre 2026 e 2028. Entre eles, o Olympus está concebido para ser o primeiro chip da Meta baseado numa arquitetura chiplet de 2nm, visando cobrir simultaneamente treino de modelos de alta gama e inferência em tempo real, e substituir em última análise o papel da NVIDIA no cluster de treino da Meta.
Agora, este chip de treino de última geração foi descartado.
A Meta não ficou sem progresso; o MTIA alcançou algum sucesso em inferência. O chip de inferência MTIA v3, com o codinome "Iris", foi implantado em larga escala nos centros de dados da Meta, principalmente para os sistemas de recomendação do Facebook Reels e Instagram, alegadamente reduzindo o custo total de propriedade em 40% a 44%. No entanto, inferência e treino são duas coisas diferentes. A inferência executa o modelo, enquanto o treino o pratica. A Meta pode fazer os seus próprios chips de inferência, mas não consegue criar um chip de treino que possa competir diretamente com a Nvidia.
Esta não é a primeira vez na história. Em 2022, a Meta tentou desenvolver o seu próprio chip de inferência, mas abandonou o projeto após falhar numa implantação em pequena escala e, em vez disso, fez uma grande encomenda à Nvidia.
O revés no desenvolvimento dos seus próprios chips acelerou diretamente a onda de terceirização da Meta.
Em janeiro de 2026, a Meta anunciou que o seu orçamento de despesas de capital para o ano estava entre 115 mil milhões e 135 mil milhões de dólares, quase o dobro dos 72,2 mil milhões de dólares do ano passado. A maior parte deste dinheiro será gasta em chips.
Em 10 dias, três grandes encomendas foram colocadas com sucesso:
Em 17 de fevereiro, a Meta assinou um acordo de cooperação estratégica plurianual e transgeracional com a NVIDIA. A Meta irá implantar "milhões" de GPUs NVIDIA Blackwell e Vera Rubin de próxima geração, mais CPUs discretas Grace. Os analistas estimam que o negócio vale dezenas de milhares de milhões de dólares, tornando a Meta o primeiro cliente de supercomputação do mundo a implantar CPUs discretas NVIDIA Grace em larga escala.
Em 24 de fevereiro, a Meta e a AMD assinaram um acordo de chip plurianual no valor de 60 mil milhões a 100 mil milhões de dólares. A Meta irá comprar as mais recentes GPUs da série MI450 da AMD e CPUs EPYC de sexta geração. Como parte do negócio, a AMD emitiu warrants para a Meta de até 160 milhões de ações ordinárias, representando aproximadamente 10% das ações da AMD, adquiridas em tranches a 0,01 dólares por ação com base em marcos de entrega.
Em 26 de fevereiro, a The Information informou que a Meta assinou um acordo plurianual de vários milhares de milhões de dólares com a Google para arrendar chips TPU do Google Cloud para treinar e executar os seus modelos de linguagem grandes de próxima geração. As duas empresas também estão a discutir a compra direta de TPUs pela Meta para implantação nos seus próprios centros de dados a partir de 2027.
Uma empresa de redes sociais fez encomendas a três fornecedores de chips em 10 dias, potencialmente totalizando mais de 100 mil milhões de dólares.
Isto não é diversificação. Isto é compra de pânico.
Por que está a Meta com tanta pressa?
Primeiro, os chips de desenvolvimento próprio já não são uma opção viável. O cancelamento do projeto de chip de treino mais avançado significa que a Meta terá de confiar em compras externas para satisfazer as suas necessidades de treino de IA no futuro previsível. Embora o chip MTIA para inferência possa lidar com aplicações maduras como sistemas de recomendação, treinar modelos de ponta como o Avocado, que rivaliza com o GPT-5, requer hardware NVIDIA ou equivalente.
Segundo, os concorrentes não vão esperar. A OpenAI já garantiu recursos massivos da Microsoft, SoftBank e do fundo soberano dos EAU. A Anthropic garantiu fornecimentos de 1 milhão de TPUs e chips Trainium cada da Google e Amazon. O Gemini 3 da Google foi treinado inteiramente em TPUs. Se a Meta não conseguir obter poder de computação suficiente, nem sequer conseguirá garantir a sua entrada na corrida.
Terceiro, e talvez mais fundamentalmente, Zuckerberg precisa de usar "poder de compra" para compensar a falta de "capacidades de I&D". O desastre do Llama 4, a perda de talentos-chave e os reveses nos chips de desenvolvimento próprio — estes três eventos combinados tornaram a narrativa de IA da Meta frágil aos olhos de Wall Street. Assinar grandes negócios com a Nvidia, AMD e Google neste momento envia pelo menos um sinal: Temos o dinheiro, estamos a comprar, e não desistimos.
A estratégia atual da Meta é investir em hardware se não conseguirem resolver os problemas de software, e comprar chips se não conseguirem reter talentos. Mas a corrida da IA não é um jogo que se possa ganhar simplesmente emitindo cheques. O poder de computação é uma condição necessária, mas não suficiente. Sem uma equipa de modelos de primeira linha e um roteiro técnico claro, nenhuma quantidade de chips mudará nada além de inventário caro num armazém.
Olhando para trás para as três transações da Meta em fevereiro, um detalhe interessante foi ignorado pela maioria das pessoas.
A Meta comprou o Blackwell atual e o futuro Vera Rubin da Nvidia; no seu negócio com a AMD, comprou o MI450 e o futuro MI455X; e arrendou o TPU Ironwood atual da Google, com planos de o comprar diretamente no próximo ano.
Três fornecedores, três arquiteturas de hardware e ecossistemas de software completamente diferentes.
Isto significa que a Meta terá de navegar entre três ecossistemas subjacentes completamente diferentes: CUDA da NVIDIA, ROCm da AMD e XLA/JAX da Google. Embora uma estratégia multi-fornecedor possa mitigar riscos da cadeia de abastecimento e reduzir prémios de aquisição de hardware, também levará a um aumento exponencial na complexidade de engenharia.
Esta é precisamente a fraqueza mais fatal da Meta. Para permitir que um modelo com triliões de parâmetros seja treinado eficientemente nestes três modelos de programação subjacentes completamente diferentes em hardware diferente, requer não apenas engenheiros que compreendam CUDA, mas também arquitetos que possam construir uma estrutura de treino multiplataforma do zero.
Provavelmente não há mais de 100 pessoas assim no mundo. Pang Ruoming é uma delas.
Gastar 100 mil milhões de dólares para adquirir o portfólio de hardware mais complexo do mundo enquanto simultaneamente perde os cérebros que o podem controlar — este é o aspeto mais surreal da aposta de Zuckerberg.
Ampliando a visão, a abordagem de Zuckerberg à IA nos últimos 18 meses apresenta uma semelhança notável com a sua estratégia all-in de exploração do metaverso há anos atrás:
Vendo uma tendência, investem pesadamente e recrutam um grande número de pessoas; quando encontram reveses, fazem uma mudança estratégica súbita e investem pesadamente novamente.
O período de 2021 a 2023 foi o metaverso, que resultou em perdas de dezenas de milhares de milhões de dólares cada ano, e o preço das ações acabou por cair de 380 dólares para 88 dólares. O período de 2024 a 2026 foi a IA, que também envolveu gastar dinheiro sem considerar o custo, reestruturação organizacional frequente, e a mesma narrativa de "Confie em mim, tenho visão."
A diferença é que esta tendência de IA é de facto muito mais tangível do que o metaverso. A Meta, por outro lado, tem muito dinheiro para queimar; o seu negócio de publicidade gera fluxo de caixa substancial. No quarto trimestre de 2025, a receita da Meta atingiu 59,9 mil milhões de dólares, um aumento anual de 24%.
O problema é: o dinheiro pode comprar chips, poder de computação e até pessoas sentadas em estações de trabalho, mas não pode comprar pessoas que fiquem.
Pang Ruoming escolheu a OpenAI, Russ Salakhutdinov escolheu sair, e LeCun escolheu iniciar o seu próprio negócio.
A aposta atual de Zuckerberg é que, desde que compre chips suficientes, construa centros de dados suficientes e gaste dinheiro suficiente, eventualmente conseguirá encontrar ou treinar pessoas que possam usar estes recursos.
Esta aposta pode ser verdade. Afinal, a Meta é uma das empresas de tecnologia mais ricas do mundo, com mais de 100 mil milhões de dólares em fluxo de caixa operacional sendo a sua vantagem competitiva mais forte. Da OpenAI à Anthropic, da Google a outros concorrentes, a Meta tem estado continuamente a recrutar talentos. Segundo o Qubit, quase 40% dos 44 membros da equipa Superintelligence da Meta vieram da OpenAI.
No entanto, a realidade cruel da corrida da IA é que as reservas de poder de computação, listas de talentos e desempenho de modelos são todas informações públicas. O incidente de fraude de referência do Llama 4 prova que nesta indústria, não se pode manter a liderança confiando em apresentações PPT e relações públicas.
Em última análise, o mercado só reconhece uma coisa: quão bom é o seu modelo.
À medida que a corrida armamentista da IA entra em 2026, a ordem da cadeia alimentar começou a tornar-se clara:
No topo estão a OpenAI e a Google. A OpenAI possui os modelos mais fortes, a maior base de utilizadores e o financiamento mais agressivo. A Google tem uma integração vertical completa dos seus próprios chips, modelos e infraestrutura de nuvem. A Anthropic segue de perto, mantendo firmemente a sua posição no primeiro escalão graças à força do produto do seu modelo Claude e ao fornecimento duplo de poder de computação da Google e Amazon.
A Meta gastou mais dinheiro, assinou mais contratos de chips e reorganizou-se com mais frequência, mas até agora, não apresentou um modelo de ponta que possa convencer o mercado.
A história de IA da Meta é um pouco semelhante à do Yahoo em 2005. Naquela época, o Yahoo era uma das empresas mais ricas da internet, adquirindo agressivamente e gastando dinheiro, mas simplesmente não conseguia criar um motor de busca como o Google. O dinheiro não é tudo. Zuckerberg precisa de descobrir exatamente o que a Meta quer fazer com a IA, em vez de simplesmente comprar o que está na moda.
Claro, é demasiado cedo para escrever o obituário da Meta. 3,58 mil milhões de utilizadores ativos mensais, 59,9 mil milhões de dólares em receita trimestral e o maior conjunto de dados sociais do mundo são ativos que nenhum concorrente pode replicar facilmente.
Se o modelo de próxima geração, com o codinome Avocado, puder ser entregue conforme programado em 2026 e voltar ao primeiro escalão, todos os gastos e reestruturação de Zuckerberg serão embalados como uma "ousadia estratégica para inverter a maré". Mas se ficar aquém das expectativas novamente, então os 135 mil milhões de dólares só resultarão em fileiras de armazéns de wafers de silício aquecidos.
Afinal, a corrida armamentista de IA do Vale do Silício nunca faltou super compradores agitando os seus cheques. O que falta são pessoas que sabem como usar esse poder de computação para forjar o futuro.


