Ninguna empresa se ha beneficiado más del furor por la inteligencia artificial que Nvidia, hoy la compañía más valiosa del mundo. En los últimos tres años, los inversores han impulsado sus acciones hasta el estratosfera bajo la creencia de que su dominio del mercado de chips de IA es inquebrantable. Fabricantes rivales y startups por igual han intentado abrirse paso en su negocio, con poco éxito.
Ahora, sin embargo, uno de los mayores clientes de Nvidia ha emergido como su competidor más feroz hasta el momento. Este mes Google, que fue pionera en la arquitectura “transformer” que sustenta la actual ola de IA, lanzó Gemini 3, un modelo de vanguardia que supera al de sus principales rivales —incluido OpenAI— en la mayoría de los benchmarks. Lo crucial es que Gemini 3 fue entrenado íntegramente con los propios chips de Google, llamados unidades de procesamiento tensorial (TPU), que la empresa empezó a ofrecer a terceros como una alternativa más barata a las unidades de procesamiento gráfico (GPU) de Nvidia. El mes pasado Anthropic, otro desarrollador de modelos, anunció planes para usar hasta 1 millón de las TPU de Google en un acuerdo valuado, según se informa, en decenas de miles de millones de dólares. Informes que aseguran que Meta —otro gigante tecnológico con grandes ambiciones en IA— también está en conversaciones para usar los chips de Google en sus centros de datos para 2027 hicieron que Nvidia sufriera hace unos días un derrumbe en el precio de sus acciones.
Hackers, IA y criptomonedas: una nueva ola del cibercrimen sacude a las empresas globales
Los clientes de Nvidia tienen un fuerte incentivo para explorar alternativas más baratas. Bernstein, una firma de investigación de inversiones, estima que las GPU de Nvidia representan más de dos tercios del costo de un rack típico de servidores de IA. Las TPU de Google cuestan entre la mitad y una décima parte de lo que vale un chip equivalente de Nvidia. Esos ahorros son importantes, dado el enorme volumen de dinero que hoy se destina a capacidad de cómputo para IA. Bloomberg Intelligence estima que el gasto de capital de Google alcanzará los US$95.000 millones el próximo año, y que casi tres cuartas partes se destinarán a entrenar y ejecutar modelos de IA. Los inversores han captado recientemente la enorme ventaja de costos que Google ha obtenido gracias a sus chips internos; en los últimos tres meses, las acciones de Alphabet, su empresa matriz, han subido un 50%, convirtiéndola en la tercera compañía más valiosa del mundo.
Otros gigantes tecnológicos, incluidos Amazon, Meta y Microsoft, también están desarrollando procesadores personalizados, y el mes pasado OpenAI anunció una colaboración con Broadcom, un diseñador de chips, para crear su propio silicio. Pero ninguno ha avanzado tanto como Google. La compañía comenzó a diseñar sus chips hace más de una década. En aquel entonces, los ingenieros de Google estimaban que si los usuarios utilizaban una nueva función de búsqueda por voz en sus teléfonos durante apenas unos minutos al día, la empresa necesitaría duplicar la capacidad de sus centros de datos. Esa predicción impulsó el desarrollo de un procesador más eficiente y adaptado a las necesidades de Google. Hoy la empresa va por la séptima generación de TPU. Jefferies, un banco de inversión, calcula que Google fabricará alrededor de 3 millones de estos chips el próximo año, casi la mitad del volumen de Nvidia.
Sin embargo, para los demás clientes de Nvidia, cambiarse a los chips de Google no será sencillo. La ventaja de Nvidia radica en parte en CUDA, la plataforma de software que ayuda a los programadores a aprovechar sus GPU. Los desarrolladores de IA están habituados a ella. Y mientras que el software que rodea a las TPU fue creado pensando en los propios productos de Google —incluida la búsqueda—, CUDA está diseñado para atender una amplia variedad de aplicaciones. Además, según Jay Goldberg de Seaport Research Partners, podría haber un límite en la voluntad de Google de vender sus TPU: podría preferir orientar a los potenciales clientes hacia su lucrativo servicio de computación en la nube. Para obstaculizar a sus competidores en IA, Google también podría verse tentada a mantener los precios de sus chips elevados.
Globalización en puerta: los laboratorios chinos se preparan para conquistar el mundo
Todo esto podría explicar por qué Jensen Huang, el director ejecutivo de Nvidia, no parece especialmente preocupado. Ha descrito a Google como “un caso muy especial”, dado que comenzó a desarrollar chips mucho antes de la actual ola de IA, y ha desestimado los esfuerzos de otros calificándolos como “super adorables y simples”. También apuesta por la flexibilidad. La arquitectura transformer que sustenta los modelos de IA actuales todavía está evolucionando. Las GPU, que fueron desarrolladas originalmente para videojuegos, son altamente adaptables, permitiendo a los investigadores de IA probar nuevos enfoques. Nvidia quizá ya no parezca tan invulnerable como antes. Pero su fortaleza no debe subestimarse.

Copiar enlaceX (Twitter)LinkedInFacebookEmail
XRP se enfrenta a riesgo a la baja mientras Social
