Escrito por: Ada , Deep Tide TechFlow
Pang Ruoming se fue antes de tener la oportunidad de instalarse en su puesto de trabajo en Meta.

En julio de 2025, Zuckerberg fichó a este ingeniero chino más codiciado en el campo de la infraestructura de IA de Apple con un paquete de compensación plurianual de más de 200 millones de dólares. Pang Ruoming fue asignado al Meta Superintelligence Lab para ser responsable de construir la infraestructura para modelos de IA de próxima generación.
Siete meses después, OpenAI lo fichó.
Según The Information, OpenAI lanzó una campaña de reclutamiento de meses para Pang Ruoming. Aunque Pang dijo a sus colegas que estaba "muy feliz trabajando en Meta", finalmente optó por irse. Bloomberg informó que su paquete de compensación en Meta estaba vinculado a hitos, e irse antes significaba renunciar a la mayoría de sus opciones sobre acciones no adquiridas.
200 millones de dólares no pueden comprar siete meses de lealtad.
Esta no es una simple historia de cambio de trabajo.
Pang Ruoming no fue el primero en irse.
La semana pasada, Mat Velloso, líder de producto para la plataforma de desarrolladores en Meta's Superintelligence Labs, también anunció su partida. Se unió a Meta el pasado julio desde Google DeepMind y permaneció menos de ocho meses. Yendo más atrás, en noviembre de 2025, el ganador del premio Turing y científico jefe de IA Yann LeCun, que había estado con Meta durante 12 años, anunció su partida para iniciar su propio negocio, trabajando en el "modelo mundial" que había defendido durante mucho tiempo. Russ Salakhutdinov, un protegido clave de Geoffrey Hinton y vicepresidente de investigación de IA generativa en Meta, también anunció recientemente su partida.
Para entender la fuga de talentos en Meta AI, primero debemos entender cuán perjudicial fue Llama 4.
En abril de 2025, Meta lanzó con gran publicidad los modelos Scout y Maverick de la serie Llama 4. Las especificaciones oficiales eran impresionantes, afirmando que superaban completamente a GPT-4.5 y Claude Sonnet 3.7 en pruebas de referencia fundamentales como MATH-500 y GPQA Diamond.
Sin embargo, este modelo insignia, que encarna las ambiciones de Meta, rápidamente reveló su verdadera naturaleza en pruebas ciegas independientes realizadas por terceros en la comunidad de código abierto, con sus capacidades reales de generalización e inferencia quedando muy por debajo del rendimiento anunciado. Ante fuertes críticas de la comunidad, el científico jefe de IA Yann LeCun finalmente admitió que el equipo "usó diferentes versiones del modelo para ejecutar diferentes conjuntos de prueba durante la fase de prueba con el fin de optimizar la puntuación final".
En las rigurosas comunidades académicas e ingenieriles de IA, esto cruzó una línea roja imperdonable. En otras palabras, el equipo entrenó a Llama 4 como un "examinado de pueblo pequeño" que solo podía resolver preguntas de exámenes pasados, en lugar de un verdadero "estudiante destacado" avanzado con inteligencia de vanguardia. Es como mostrarte un examen de matemáticas y un examen de programación: cada prueba individual parece fuerte, pero en realidad no son el mismo modelo.
En el ámbito académico de IA, esto se llama "cherry picking", mientras que en educación orientada a exámenes, se llama "hacer el examen en nombre de otros".
Para Meta, que siempre se ha promocionado como un "faro del código abierto", esta turbulencia destruyó directamente su activo más valioso de confianza dentro del ecosistema de desarrolladores. Su costo inmediato fue que Zuckerberg "perdió completamente la fe" en los fundamentos de ingeniería del equipo GenAI original, preparando así el escenario para el nombramiento posterior de ejecutivos de alto rango y la marginación de departamentos de infraestructura centrales.
Gastó entre 14.3 mil millones y 15 mil millones de dólares para adquirir una participación del 49% en la empresa de etiquetado de datos Scale AI, trayendo al CEO de Scale AI de 28 años, Alexandr Wang, como Director de Tecnología (CTO) de IA de Meta y estableciendo el Meta Superintelligence Lab (MSL). El ganador del premio Turing, LeCun, debía reportar a este joven de 28 años en la nueva estructura. En octubre, Meta despidió aproximadamente 600 empleos en MSL, incluidos miembros de la división de investigación FAIR que LeCun había fundado.
El modelo insignia Llama 4 Behemoth, originalmente planeado para lanzarse en el verano de 2025, ha sido repetidamente retrasado, del verano al otoño, y finalmente puesto en espera indefinidamente.
Meta ha cambiado su enfoque para desarrollar un modelo de texto de próxima generación con nombre en clave "Avocado" y un modelo de imagen/video con nombre en clave "Mango". Según se informa, Avocado está diseñado para competir con GPT-5 y Gemini 3 Ultra. Originalmente programado para lanzarse a finales de 2025, se ha retrasado al primer trimestre de 2026 debido a pruebas de rendimiento insatisfactorias y optimización del entrenamiento. Meta está considerando lanzarlo como código cerrado, abandonando la tradición de código abierto de la serie Llama.
Meta cometió dos errores fatales con sus modelos de IA. Primero, fabricó datos de referencia, lo que destruyó directamente la confianza de la comunidad de desarrolladores. Segundo, metió un departamento de investigación fundamental como Fair, que requiere una década de trabajo dedicado, en una organización de producto enfocada en KPIs trimestrales. Estas dos acciones combinadas son la causa raíz de su actual fuga de talentos.
El talento se está yendo, y hay problemas con los chips.
Según The Information, Meta canceló su proyecto de chip de entrenamiento de IA más avanzado, que estaba en desarrollo internamente, la semana pasada.
El proyecto de chip autodesarrollado de Meta se llama MTIA (Meta Training and Inference Accelerator). La hoja de ruta inicial de la compañía es ambiciosa: MTIA v4, con nombre en clave "Santa Barbara", v5, con nombre en clave "Olympus", y v6, con nombre en clave "Universal Core", están planeados para entrega entre 2026 y 2028. Entre ellos, Olympus está diseñado para ser el primer chip de Meta basado en una arquitectura chiplet de 2nm, con el objetivo de cubrir simultáneamente el entrenamiento de modelos de alta gama y la inferencia en tiempo real, y finalmente reemplazar el papel de NVIDIA en el clúster de entrenamiento de Meta.
Ahora, este chip de entrenamiento de última generación ha sido descartado.
Meta no ha estado sin progreso; MTIA ha logrado cierto éxito en inferencia. El chip de inferencia MTIA v3, con nombre en clave "Iris", ha sido desplegado a gran escala en los centros de datos de Meta, principalmente para los sistemas de recomendación de Facebook Reels e Instagram, reduciendo supuestamente el costo total de propiedad entre un 40% y un 44%. Sin embargo, inferencia y entrenamiento son dos cosas diferentes. La inferencia ejecuta el modelo, mientras que el entrenamiento lo practica. Meta puede hacer sus propios chips de inferencia, pero no puede crear un chip de entrenamiento que pueda competir directamente con Nvidia.
Esta no es la primera vez en la historia. En 2022, Meta intentó desarrollar su propio chip de inferencia, pero abandonó el proyecto después de fallar en un despliegue a pequeña escala y en su lugar realizó un gran pedido con Nvidia.
El revés en el desarrollo de sus propios chips aceleró directamente la ola de externalización de Meta.
En enero de 2026, Meta anunció que su presupuesto de gastos de capital para el año estaba entre 115 mil millones y 135 mil millones de dólares, casi el doble de los 72.2 mil millones de dólares del año pasado. La mayor parte de este dinero se gastará en chips.
En 10 días, se realizaron tres grandes pedidos con éxito:
El 17 de febrero, Meta firmó un acuerdo de cooperación estratégica plurianual y multigeneracional con NVIDIA. Meta desplegará "millones" de GPUs NVIDIA Blackwell y Vera Rubin de próxima generación, más CPUs discretas Grace. Los analistas estiman que el trato vale decenas de miles de millones de dólares, haciendo de Meta el primer cliente de supercomputación del mundo en desplegar CPUs discretas NVIDIA Grace a gran escala.
El 24 de febrero, Meta y AMD firmaron un acuerdo de chips plurianual valorado entre 60 mil millones y 100 mil millones de dólares. Meta comprará las últimas GPUs de la serie MI450 de AMD y CPUs EPYC de sexta generación. Como parte del trato, AMD emitió warrants a Meta por hasta 160 millones de acciones ordinarias, representando aproximadamente el 10% de las acciones de AMD, adquiridas en tramos a 0.01 dólares por acción basándose en hitos de entrega.
El 26 de febrero, The Information informó que Meta firmó un acuerdo plurianual de miles de millones de dólares con Google para arrendar chips TPU de Google Cloud para entrenar y ejecutar sus modelos de lenguaje grandes de próxima generación. Las dos compañías también están discutiendo que Meta compre TPUs directamente para despliegue en sus propios centros de datos a partir de 2027.
Una compañía de redes sociales realizó pedidos con tres proveedores de chips en 10 días, totalizando potencialmente más de 100 mil millones de dólares.
Esto no es diversificación. Esto es compra de pánico.
¿Por qué Meta tiene tanta prisa?
Primero, los chips autodesarrollados ya no son una opción viable. La cancelación del proyecto de chip de entrenamiento más avanzado significa que Meta tendrá que depender de compras externas para satisfacer sus necesidades de entrenamiento de IA en el futuro previsible. Aunque el chip MTIA para inferencia puede manejar aplicaciones maduras como sistemas de recomendación, entrenar modelos de vanguardia como Avocado, que rivaliza con GPT-5, requiere hardware NVIDIA o equivalente.
Segundo, los competidores no esperarán. OpenAI ya ha asegurado recursos masivos de Microsoft, SoftBank y el fondo soberano de los Emiratos Árabes Unidos. Anthropic ha asegurado suministros de 1 millón de TPUs y chips Trainium cada uno de Google y Amazon. Gemini 3 de Google fue entrenado completamente en TPUs. Si Meta no puede obtener suficiente poder de computación, ni siquiera podrá asegurar su entrada en la carrera.
Tercero, y quizás más fundamentalmente, Zuckerberg necesita usar "poder adquisitivo" para compensar la falta de "capacidades de I+D". El desastre de Llama 4, la pérdida de talento clave y los reveses en chips autodesarrollados—estos tres eventos combinados han hecho frágil la narrativa de IA de Meta a los ojos de Wall Street. Firmar grandes tratos con Nvidia, AMD y Google en este momento envía al menos una señal: Tenemos el dinero, estamos comprando, y no nos hemos rendido.
La estrategia actual de Meta es invertir en hardware si no pueden resolver los problemas de software, y comprar chips si no pueden retener talento. Pero la carrera de IA no es un juego que puedas ganar simplemente extendiendo cheques. El poder de computación es una condición necesaria, pero no suficiente. Sin un equipo de modelos de primer nivel y una hoja de ruta técnica clara, ninguna cantidad de chips cambiará nada más que inventario costoso en un almacén.
Mirando hacia atrás a las tres transacciones de Meta en febrero, un detalle interesante ha sido pasado por alto por la mayoría de las personas.
Meta compró el actual Blackwell y el futuro Vera Rubin de Nvidia; en su trato con AMD, compró el MI450 y el futuro MI455X; y arrendó el actual Ironwood TPU de Google, con planes de comprarlo directamente el próximo año.
Tres proveedores, tres arquitecturas de hardware y ecosistemas de software completamente diferentes.
Esto significa que Meta tendrá que navegar entre tres ecosistemas subyacentes completamente diferentes: CUDA de NVIDIA, ROCm de AMD y XLA/JAX de Google. Aunque una estrategia de múltiples proveedores puede mitigar riesgos de cadena de suministro y reducir primas de adquisición de hardware, también conducirá a un aumento exponencial en la complejidad de ingeniería.
Esta es precisamente la debilidad más fatal de Meta. Para permitir que un modelo con billones de parámetros sea entrenado eficientemente en estos tres modelos de programación subyacentes completamente diferentes en hardware diferente, requiere no solo ingenieros que entiendan CUDA, sino también arquitectos que puedan construir un marco de entrenamiento multiplataforma desde cero.
Probablemente no hay más de 100 personas así en el mundo. Pang Ruoming es una de ellas.
Gastar 100 mil millones de dólares para adquirir la cartera de hardware más compleja del mundo mientras simultáneamente se pierden los cerebros que pueden controlarla—este es el aspecto más surrealista de la apuesta de Zuckerberg.
Haciendo zoom, el enfoque de Zuckerberg hacia la IA en los últimos 18 meses guarda un parecido sorprendente con su estrategia todo-incluido de explorar el metaverso hace años:
Viendo una tendencia, invierten fuertemente y reclutan un gran número de personas; cuando encuentran contratiempos, hacen un cambio estratégico repentino e invierten fuertemente de nuevo.
El período de 2021 a 2023 fue el Metaverso, que resultó en pérdidas de decenas de miles de millones de dólares cada año, y el precio de las acciones finalmente cayó de 380 dólares a 88 dólares. El período de 2024 a 2026 fue IA, que también involucró gastar dinero sin tener en cuenta el costo, reestructuración organizacional frecuente, y la misma narrativa de "Confía en mí, tengo visión".
La diferencia es que esta tendencia de IA es de hecho mucho más tangible que el Metaverso. Meta, por otro lado, tiene mucho efectivo para quemar; su negocio publicitario genera un flujo de efectivo sustancial. En el cuarto trimestre de 2025, los ingresos de Meta alcanzaron 59.9 mil millones de dólares, un aumento interanual del 24%.
El problema es: el dinero puede comprar chips, poder de computación, e incluso personas sentadas en estaciones de trabajo, pero no puede comprar personas que se queden.
Pang Ruoming eligió OpenAI, Russ Salakhutdinov eligió irse, y LeCun eligió iniciar su propio negocio.
La apuesta actual de Zuckerberg es que mientras compre suficientes chips, construya suficientes centros de datos, y gaste suficiente dinero, eventualmente podrá encontrar o entrenar personas que puedan usar estos recursos.
Esta apuesta podría ser cierta. Después de todo, Meta es una de las compañías tecnológicas más ricas del mundo, con más de 100 mil millones de dólares en flujo de efectivo operativo siendo su ventaja competitiva más fuerte. Desde OpenAI hasta Anthropic, desde Google hasta otros competidores, Meta ha estado fichando talento continuamente. Según Qubit, casi el 40% de los 44 miembros del equipo de Superinteligencia de Meta provienen de OpenAI.
Sin embargo, la cruel realidad de la carrera de IA es que las reservas de poder de computación, las listas de talento y el rendimiento del modelo son toda información pública. El incidente de fraude de referencia de Llama 4 demuestra que en esta industria, no puedes mantener tu liderazgo confiando en presentaciones PPT y relaciones públicas.
En última instancia, el mercado solo reconoce una cosa: qué tan bueno es tu modelo.
A medida que la carrera armamentista de IA entra en 2026, el orden de la cadena alimentaria ha comenzado a volverse claro:
En la cima están OpenAI y Google. OpenAI cuenta con los modelos más fuertes, la base de usuarios más grande y la financiación más agresiva. Google tiene una integración vertical completa de sus propios chips, modelos e infraestructura en la nube. Anthropic sigue de cerca, manteniendo firmemente su posición en el primer nivel gracias a la fortaleza del producto de su modelo Claude y el suministro dual de poder de computación de Google y Amazon.
Meta ha gastado más dinero, firmado más contratos de chips y reorganizado con más frecuencia, pero hasta ahora, no ha presentado un modelo de vanguardia que pueda convencer al mercado.
La historia de IA de Meta es algo similar a la de Yahoo en 2005. En ese entonces, Yahoo era una de las compañías más ricas de internet, adquiriendo agresivamente y gastando dinero, pero simplemente no podía crear un motor de búsqueda como Google. El dinero no lo es todo. Zuckerberg necesita averiguar exactamente qué quiere hacer Meta con IA, en lugar de solo comprar lo que está de moda.
Por supuesto, es demasiado pronto para escribir el obituario de Meta. 3.58 mil millones de usuarios activos mensuales, 59.9 mil millones de dólares en ingresos trimestrales, y el conjunto de datos sociales más grande del mundo son activos que ningún competidor puede replicar fácilmente.
Si el modelo de próxima generación, con nombre en clave Avocado, puede ser entregado según lo programado en 2026 y regresar al nivel superior, todo el gasto y reestructuración de Zuckerberg será empaquetado como una "audacia estratégica para cambiar el rumbo". Pero si vuelve a no cumplir las expectativas, entonces los 135 mil millones de dólares solo resultarán en filas de almacenes calentados de obleas de silicio.
Después de todo, la carrera armamentista de IA de Silicon Valley nunca ha carecido de súper compradores agitando sus cheques. Lo que le falta son personas que sepan cómo usar ese poder de computación para forjar el futuro.


