Nvidia a franchi une autre étape majeure dans la course mondiale vers des solutions d'IA haut de gamme. L'entreprise affirme que ses nouvelles puces de centre de données Rubin sont presque prêtes à être lancées plus tard cette année, et les clients commenceront bientôt à les tester.
Les six puces Rubin sont revenues des partenaires de fabrication de Nvidia, a déclaré l'entreprise. Ces puces ont déjà subi plusieurs procédures de test clés et sont dans les délais pour être utilisées par les clients. L'entreprise note que ces progrès précoces sont importants car les entreprises d'IA et les centres de données se précipitent pour obtenir du matériel plus rapide et plus efficace.
Le directeur général de Nvidia, Jensen Huang, a partagé cette mise à jour lors d'un discours d'ouverture au Consumer Electronics Show (CES) à Las Vegas. Le CES est l'un des plus grands rassemblements technologiques au monde, au cours duquel les fabricants dévoilent de nouveaux produits et idées. « La course à l'IA est lancée », a déclaré Huang au milieu de la course en développement rapide entre les entreprises technologiques pour débloquer la prochaine génération d'IA.
Ses commentaires indiquent que Nvidia est très sûr qu'il peut rester le fabricant numéro un mondial d'accélérateurs d'IA. Ces accélérateurs sont des puces spécialisées qu'un centre de données utilise pour entraîner et exécuter des modèles d'IA, qui alimentent des outils tels que les chatbots, les systèmes de reconnaissance d'images et les robots avancés.
Rubin est le nouvel accélérateur d'IA de Nvidia, succédant à sa génération précédente appelée Blackwell. L'entreprise affirme que Rubin est 3,5 fois plus rapide pour l'entraînement des modèles d'IA et cinq fois plus rapide pour l'exécution de logiciels d'IA par rapport à Blackwell. L'entraînement de l'IA consiste à apprendre aux modèles à partir de vastes quantités de données, tandis que l'exécution de l'IA signifie utiliser ces modèles pour effectuer des tâches en temps réel.
Rubin ajoute une nouvelle unité centrale de traitement (CPU) avec 88 cœurs. Les cœurs sont les parties d'une puce qui effectuent des calculs et traitent des données. Avec deux fois les performances de la puce qu'elle remplace, ce nouveau CPU est mieux adapté aux charges de travail d'IA plus complexes. Lors de la conférence GTC de printemps de Nvidia en Californie, l'entreprise partage généralement tous les détails des produits.
Cette fois, plus d'informations ont été divulguées que d'habitude. Cette démarche est considérée comme un moyen de maintenir l'attention des consommateurs et des développeurs sur le matériel de Nvidia alors que l'adoption de l'IA continue de croître rapidement. Huang lui-même a également fait de nombreuses apparitions publiques pour promouvoir les produits, partenariats et investissements d'IA. Nvidia n'était pas le seul acteur sous les projecteurs au CES. Lisa Su, PDG du fabricant de puces concurrent Advanced Micro Devices (AMD), a également réservé un discours d'ouverture, soulignant l'escalade de la concurrence sur le marché des puces.
Certains investisseurs se sont inquiétés du fait que la concurrence pour Nvidia s'intensifie. D'autres entreprises technologiques développent également leurs propres puces d'IA, ce qui rend difficile de dire si les dépenses en IA peuvent suivre le rythme.
Nvidia, cependant, est resté optimiste, estimant que le marché de l'IA à long terme pourrait valoir des milliers de milliards de dollars, tiré par la demande d'industries telles que le cloud computing, les entreprises et les secteurs émergents.
Le matériel Rubin sera utilisé dans le DGX SuperPod de Nvidia, un supercalculateur puissant conçu pour le travail d'IA à grande échelle. Dans le même temps, les clients pourront acheter les puces Rubin en tant que composants individuels, leur permettant de construire des systèmes plus flexibles et modulaires.
L'augmentation des performances est particulièrement critique, étant donné que les systèmes d'IA continuent d'évoluer. L'IA moderne s'appuie de plus en plus sur des réseaux de modèles spécialisés qui non seulement traitent des quantités massives de données, mais résolvent également des problèmes en plusieurs étapes. Ces tâches incluent la planification, le raisonnement et la prise de décision.
Nvidia a également souligné que les systèmes basés sur Rubin seront moins chers à exploiter que les systèmes Blackwell. Parce que Rubin peut fournir les mêmes résultats avec moins de composants, les centres de données peuvent économiser sur l'énergie et les coûts d'exploitation.
Les grandes entreprises de cloud computing telles que Microsoft, Google Cloud et Amazon Web Services (AWS) devraient être parmi les premières à déployer le matériel Rubin au second semestre de l'année. Ces entreprises représentent actuellement la majorité des dépenses en systèmes d'IA alimentés par Nvidia.
Affinez votre stratégie avec du mentorat + des idées quotidiennes - 30 jours d'accès gratuit à notre programme de trading


