Alibaba Group Holding Limited a clôturé à 167,05 $, marquant une augmentation de 1,19%, suite à une percée majeure dans l'infrastructure d'IA.
Alibaba Group Holding Limited, BABA
L'entreprise a introduit une solution de mise en commun informatique qui a réduit l'utilisation des GPU Nvidia de 82% dans les opérations de service de modèles. Cette avancée positionne Alibaba Cloud en tête dans la course à l'optimisation du déploiement de l'IA à grande échelle.
Alibaba Cloud, la branche de cloud computing de l'entreprise basée à Hangzhou, a implémenté un nouveau système appelé Aegaeon pour améliorer l'efficacité de l'IA. La solution permet à un seul GPU Nvidia H20 de servir jusqu'à sept grands modèles de langage simultanément. Ce changement a réduit l'utilisation des GPU de 1 192 à seulement 213 unités lors des tests internes.
Aegaeon fonctionne en effectuant une mise à l'échelle automatique au niveau des tokens pendant l'inférence de modèle à travers des charges de travail d'IA simultanées. Cette stratégie permet une réallocation dynamique des ressources, permettant au même GPU de basculer entre les modèles en cours de traitement. Elle a également réduit la latence dans les tâches de changement de modèle de 97%.
La solution a été testée en version bêta pendant plus de trois mois sur la place de marché Bailian d'Alibaba Cloud. Elle a géré des dizaines de modèles avec jusqu'à 72 milliards de paramètres sans dégradation de service. Aegaeon a maintenant été officiellement déployé sur la place de marché de modèles d'Alibaba, qui sert ses modèles propriétaires Qwen.
Alibaba Cloud a constaté que seul un petit nombre de modèles sont fréquemment utilisés dans les tâches d'IA réelles. Malgré cela, de nombreux GPU étaient alloués à des modèles rarement appelés, entraînant une faible utilisation des ressources. Les données ont montré que 17,7% des GPU ne servaient que 1,35% des demandes d'inférence totales.
Avec Aegaeon, l'entreprise a résolu ce déséquilibre grâce à des stratégies de mise en commun et de mise à l'échelle intelligente. Le système a assuré une utilisation cohérente des GPU et empêché le traitement inactif sur les modèles rarement utilisés. Alibaba a atteint un débit plus élevé et amélioré l'efficacité matérielle pour les déploiements d'entreprise.
Des chercheurs de l'Université de Pékin et d'Alibaba Cloud ont co-écrit un article technique détaillant l'innovation, présenté au SOSP 2025 en Corée du Sud. L'étude a souligné que servir des charges de travail simultanées avec des méthodes GPU traditionnelles entraînait des coûts inutiles. Cette percée soutient directement l'objectif de la Chine de modernisation de l'infrastructure d'IA sous contraintes de ressources.
Nvidia a développé le GPU H20 spécifiquement pour l'inférence d'IA en Chine, conformément aux restrictions d'exportation américaines. Cependant, les régulateurs chinois ont récemment lancé une enquête sur d'éventuelles vulnérabilités de sécurité cachées dans la puce. Cet examen a affecté la position de marché de la puce et son adoption en Chine.
Des entreprises chinoises comme Huawei et Cambricon accélèrent le développement de GPU nationaux pour réduire la dépendance étrangère. Le PDG de Nvidia a déclaré que la part de marché de l'entreprise pour les puces d'IA avancées en Chine est tombée à zéro. Cette tendance pousse les acteurs locaux à innover et à localiser les chaînes d'approvisionnement de matériel d'IA.
La nouvelle approche d'Alibaba renforce sa position sur le marché tout en s'alignant sur les stratégies nationales d'autosuffisance technologique. En réduisant sa dépendance aux puces américaines, Alibaba gagne une position plus forte dans l'écosystème d'IA en évolution de la Chine. La hausse de l'action reflète la confiance dans les économies de coûts et l'évolutivité basées sur la technologie.
L'article Alibaba Group Holding Limited (BABA) stock soars as new AI pooling tech slashes Nvidia GPU use by 82% est apparu d'abord sur CoinCentral.


