Google a passé plus d'une décennie à construire discrètement la technologie qui l'aide maintenant à frapper bien au-dessus de son poids dans la guerre de l'IA.
Alors que Nvidia trône au sommet de la chaîne alimentaire, vendant ses GPU à pratiquement toutes les grandes entreprises technologiques de la planète, Google s'est affairé à concevoir ses propres armes ; des puces qu'elle n'a jamais eu l'intention de vendre, mais qu'elle utilise plutôt pour alimenter tout ce qui se trouve derrière sa pile d'IA.
Et maintenant, avec une demande de puissance de calcul à un nouveau sommet historique, ce silicium maison montre enfin sa valeur.
Jeudi, Google a confirmé qu'Ironwood, la dernière génération de son Tensor Processing Unit (TPU), sera disponible dans les semaines à venir. C'est la puce de septième génération de l'entreprise, conçue pour gérer tout, de l'entraînement de modèles gigantesques à l'exécution d'Agents d'IA et de chatbots en temps réel.
Ironwood, selon Google, est plus de quatre fois plus rapide que le TPU précédent. Un client, Anthropic, prévoit de déployer jusqu'à 1 million d'entre eux pour alimenter son modèle Claude.
Même si Google continue d'accumuler des GPU Nvidia, elle ne se contente pas de s'appuyer sur les puces des autres. Les TPU sont en développement depuis plus de dix ans et sont devenus disponibles pour les clients du Cloud dès 2018.
Utilisés à l'origine uniquement pour les charges de travail internes, ils sont maintenant un élément central de l'infrastructure Cloud AI publique de Google.
L'analyste Stacy Rasgon de Bernstein a déclaré : "Parmi les acteurs ASIC, Google est le seul à avoir vraiment déployé ce matériel en volumes énormes."
Actuellement, Google ne vend pas les TPU comme matériel physique. À la place, les clients louent l'accès via Google Cloud, qui est devenu l'un des plus grands moteurs de revenus de l'entreprise.
Le trimestre dernier, Alphabet a rapporté 15,15 milliards de dollars de revenus cloud, en hausse de 34% par rapport à l'année précédente. Sundar Pichai, PDG de l'entreprise, a déclaré aux investisseurs : "Nous constatons une demande substantielle pour nos produits d'infrastructure IA, y compris les solutions basées sur TPU et GPU."
Avec la pression croissante dans le secteur technologique pour accéder à la puissance de calcul, Google verrouille des partenariats monstrueux. Le mois dernier, l'entreprise a élargi son partenariat avec Anthropic dans un accord qui vaudrait des dizaines de milliards.
Cet accord donnera à Anthropic accès à plus d'un gigawatt de capacité de calcul IA d'ici 2026.
Google a investi 3 milliards de dollars dans Anthropic jusqu'à présent. Bien qu'Amazon reste le principal partenaire cloud de l'entreprise, Google fournit maintenant l'infrastructure principale pour les futurs modèles Claude. Mike Krieger, directeur des produits d'Anthropic, a déclaré :
"La demande pour nos modèles est telle que je pense que la seule façon dont nous aurions pu servir autant que nous l'avons fait cette année est cette stratégie multi-puces."
Cette stratégie inclut les TPU, Trainium et les GPU Nvidia, et elle est conçue pour la performance, le coût et la sauvegarde. Krieger a ajouté que son équipe avait effectué un travail préparatoire pour s'assurer que Claude puisse fonctionner sans problème sur tous les principaux types de puces.
"J'ai vu cet investissement porter ses fruits maintenant que nous sommes capables de mettre en ligne ces centres de données massifs et de rencontrer les clients là où ils se trouvent", a-t-il déclaré.
Deux mois avant l'accord avec Anthropic, Google a signé un contrat cloud de six ans de plus de 10 milliards de dollars avec Meta. L'entreprise a également obtenu une partie des activités d'OpenAI alors qu'elle se diversifie loin de Microsoft. OpenAI a confirmé à Reuters qu'elle utilise Google Cloud mais n'y déploie pas de GPU.
Cette semaine, Google a révélé un nouveau projet appelé Suncatcher, visant à lancer des satellites alimentés à l'énergie solaire équipés de TPU. L'objectif est de construire un système qui exploite l'énergie solaire dans l'espace pour alimenter des tâches d'IA gourmandes en calcul.
L'entreprise a déclaré qu'elle prévoit de lancer deux prototypes d'ici début 2027, qualifiant l'expérience de moyen de minimiser la pression sur les ressources de la Terre tout en se préparant à des calculs à grande échelle en orbite.
Anat Ashkenazi, directrice financière d'Alphabet, a déclaré que l'élan du propriétaire de Google provient de la demande massive des entreprises pour sa pile IA complète, y compris les TPU et les GPU.
Alphabet rapporte maintenant qu'elle a signé plus de contrats cloud d'un milliard de dollars au cours des neuf premiers mois de 2025 qu'au cours des deux années précédentes combinées.
Pendant ce temps, l'unité cloud d'Amazon a augmenté de 20% le trimestre dernier. Matt Garman, PDG d'AWS, a déclaré : "Chaque puce Trainium 2 que nous installons dans nos centres de données aujourd'hui est vendue et utilisée." Il a ajouté que Trainium 3 apporterait encore plus de gains en performance et en efficacité énergétique.
Pourtant, Google joue le tout pour le tout. Elle a relevé ses prévisions de dépenses en capital pour 2025 à 93 milliards de dollars, contre 85 milliards de dollars, avec encore plus de dépenses prévues pour 2026. Son action a bondi de 38% au T3 et de 17% supplémentaires au T4, sa plus forte progression en deux décennies.
Les analystes de Mizuho ont souligné l'avantage en termes de coût et de performance des TPU, notant que bien qu'ils aient été initialement destinés à un usage interne, Google obtient maintenant une véritable traction auprès des clients externes. Morgan Stanley a également déclaré dans un rapport de juin que la familiarité des développeurs avec les TPU pourrait être un boost majeur pour la croissance de Google Cloud.
Et dans un rapport de septembre, les analystes de D.A. Davidson ont écrit : "Nous continuons à croire que les TPU de Google restent la meilleure alternative à Nvidia, l'écart entre les deux se réduisant considérablement au cours des 9-12 derniers mois."
Ils ont également mentionné un sentiment positif croissant parmi les développeurs et suggéré que Google pourrait même commencer à vendre des systèmes TPU directement aux laboratoires d'IA.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y avec notre newsletter.



