Der Beitrag NVIDIA NVLink und Fusion treiben KI-Inferenzleistung erschien auf BitcoinEthereumNews.com. Rongchai Wang 22.08.2025 05:13 NVIDIAs NVLink- und NVLink Fusion-Technologien definieren die KI-Inferenzleistung mit verbesserter Skalierbarkeit und Flexibilität neu, um dem exponentiellen Wachstum der KI-Modellkomplexität gerecht zu werden. Die rasante Entwicklung der Komplexität von künstlicher Intelligenz (KI)-Modellen hat die Parameteranzahl von Millionen auf Billionen erheblich erhöht, was beispiellose Rechenressourcen erfordert. Diese Entwicklung verlangt Cluster von GPUs zur Bewältigung der Last, wie Joe DeLaere in einem kürzlichen NVIDIA-Blogbeitrag hervorhob. NVLinks Entwicklung und Auswirkung NVIDIA führte NVLink 2016 ein, um die Einschränkungen von PCIe im Hochleistungsrechnen und bei KI-Workloads zu überwinden, was eine schnellere GPU-zu-GPU-Kommunikation und einheitlichen Speicherplatz ermöglicht. Die NVLink-Technologie hat sich erheblich weiterentwickelt, mit der Einführung des NVLink Switch im Jahr 2018, der eine All-to-All-Bandbreite von 300 GB/s in einer 8-GPU-Topologie erreichte und den Weg für skalierbare Rechenstrukturen ebnete. Das 2024 veröffentlichte NVLink der fünften Generation unterstützt 72 GPUs mit All-to-All-Kommunikation bei 1.800 GB/s und bietet eine Gesamtbandbreite von 130 TB/s – 800-mal mehr als die erste Generation. Diese kontinuierliche Weiterentwicklung entspricht der wachsenden Komplexität von KI-Modellen und ihren Rechenanforderungen. NVLink Fusion: Anpassung und Flexibilität NVLink Fusion wurde entwickelt, um Hyperscalern Zugang zu NVLinks Skalierungstechnologien zu bieten, was die Integration von kundenspezifischem Silizium mit NVIDIAs Architektur für semi-kundenspezifische KI-Infrastrukturbereitstellung ermöglicht. Die Technologie umfasst NVLink SERDES, Chiplets, Switches und Rack-Scale-Architektur und bietet eine modulare Open Compute Project (OCP) MGX-Rack-Lösung für Integrationsflexibilität. NVLink Fusion unterstützt benutzerdefinierte CPU- und XPU-Konfigurationen mit Universal Chiplet Interconnect Express (UCIe) IP und Schnittstelle und bietet Kunden Flexibilität für ihre XPU-Integrationsanforderungen über Plattformen hinweg. Für benutzerdefinierte CPU-Setups wird die Integration von NVIDIA NVLink-C2C IP für optimale GPU-Konnektivität und -Leistung empfohlen. Maximierung des KI-Fabrik-Umsatzes Die NVLink-Skalierungsstruktur verbessert die Produktivität der KI-Fabrik erheblich, indem sie das Gleichgewicht zwischen Durchsatz...Der Beitrag NVIDIA NVLink und Fusion treiben KI-Inferenzleistung erschien auf BitcoinEthereumNews.com. Rongchai Wang 22.08.2025 05:13 NVIDIAs NVLink- und NVLink Fusion-Technologien definieren die KI-Inferenzleistung mit verbesserter Skalierbarkeit und Flexibilität neu, um dem exponentiellen Wachstum der KI-Modellkomplexität gerecht zu werden. Die rasante Entwicklung der Komplexität von künstlicher Intelligenz (KI)-Modellen hat die Parameteranzahl von Millionen auf Billionen erheblich erhöht, was beispiellose Rechenressourcen erfordert. Diese Entwicklung verlangt Cluster von GPUs zur Bewältigung der Last, wie Joe DeLaere in einem kürzlichen NVIDIA-Blogbeitrag hervorhob. NVLinks Entwicklung und Auswirkung NVIDIA führte NVLink 2016 ein, um die Einschränkungen von PCIe im Hochleistungsrechnen und bei KI-Workloads zu überwinden, was eine schnellere GPU-zu-GPU-Kommunikation und einheitlichen Speicherplatz ermöglicht. Die NVLink-Technologie hat sich erheblich weiterentwickelt, mit der Einführung des NVLink Switch im Jahr 2018, der eine All-to-All-Bandbreite von 300 GB/s in einer 8-GPU-Topologie erreichte und den Weg für skalierbare Rechenstrukturen ebnete. Das 2024 veröffentlichte NVLink der fünften Generation unterstützt 72 GPUs mit All-to-All-Kommunikation bei 1.800 GB/s und bietet eine Gesamtbandbreite von 130 TB/s – 800-mal mehr als die erste Generation. Diese kontinuierliche Weiterentwicklung entspricht der wachsenden Komplexität von KI-Modellen und ihren Rechenanforderungen. NVLink Fusion: Anpassung und Flexibilität NVLink Fusion wurde entwickelt, um Hyperscalern Zugang zu NVLinks Skalierungstechnologien zu bieten, was die Integration von kundenspezifischem Silizium mit NVIDIAs Architektur für semi-kundenspezifische KI-Infrastrukturbereitstellung ermöglicht. Die Technologie umfasst NVLink SERDES, Chiplets, Switches und Rack-Scale-Architektur und bietet eine modulare Open Compute Project (OCP) MGX-Rack-Lösung für Integrationsflexibilität. NVLink Fusion unterstützt benutzerdefinierte CPU- und XPU-Konfigurationen mit Universal Chiplet Interconnect Express (UCIe) IP und Schnittstelle und bietet Kunden Flexibilität für ihre XPU-Integrationsanforderungen über Plattformen hinweg. Für benutzerdefinierte CPU-Setups wird die Integration von NVIDIA NVLink-C2C IP für optimale GPU-Konnektivität und -Leistung empfohlen. Maximierung des KI-Fabrik-Umsatzes Die NVLink-Skalierungsstruktur verbessert die Produktivität der KI-Fabrik erheblich, indem sie das Gleichgewicht zwischen Durchsatz...

NVIDIA NVLink und Fusion Drive KI-Inferenzleistung

2025/08/22 17:30


Rongchai Wang
22.08.2025 05:13

NVIDIAs NVLink- und NVLink Fusion-Technologien definieren die KI-Inferenzleistung mit verbesserter Skalierbarkeit und Flexibilität neu, um dem exponentiellen Wachstum der KI-Modellkomplexität gerecht zu werden.





Der schnelle Fortschritt in der Komplexität von künstlicher Intelligenz (KI)-Modellen hat die Parameteranzahl von Millionen auf Billionen erheblich erhöht, was beispiellose Rechenressourcen erfordert. Diese Entwicklung verlangt nach Clustern von GPUs zur Bewältigung der Last, wie Joe DeLaere in einem kürzlichen NVIDIA-Blogbeitrag hervorhob.

NVLinks Entwicklung und Auswirkung

NVIDIA führte NVLink 2016 ein, um die Einschränkungen von PCIe im Hochleistungsrechnen und bei KI-Workloads zu überwinden, was eine schnellere GPU-zu-GPU-Kommunikation und einen einheitlichen Speicherraum ermöglicht. Die NVLink-Technologie hat sich erheblich weiterentwickelt, wobei die Einführung des NVLink Switch im Jahr 2018 eine All-to-All-Bandbreite von 300 GB/s in einer 8-GPU-Topologie erreichte und den Weg für skalierbare Rechenstrukturen ebnete.

Die fünfte Generation von NVLink, die 2024 veröffentlicht wurde, unterstützt 72 GPUs mit All-to-All-Kommunikation bei 1.800 GB/s und bietet eine Gesamtbandbreite von 130 TB/s – 800-mal mehr als die erste Generation. Dieser kontinuierliche Fortschritt entspricht der wachsenden Komplexität von KI-Modellen und deren Rechenanforderungen.

NVLink Fusion: Anpassung und Flexibilität

NVLink Fusion wurde entwickelt, um Hyperscalern Zugang zu NVLinks Skalierungstechnologien zu bieten und die Integration von kundenspezifischem Silizium mit NVIDIAs Architektur für den Einsatz halbindividueller KI-Infrastruktur zu ermöglichen. Die Technologie umfasst NVLink SERDES, Chiplets, Switches und Rack-Scale-Architektur und bietet eine modulare Open Compute Project (OCP) MGX-Rack-Lösung für Integrationsflexibilität.

NVLink Fusion unterstützt benutzerdefinierte CPU- und XPU-Konfigurationen mit Universal Chiplet Interconnect Express (UCIe) IP und Schnittstelle und bietet Kunden Flexibilität für ihre XPU-Integrationsanforderungen über Plattformen hinweg. Für benutzerdefinierte CPU-Setups wird die Integration von NVIDIA NVLink-C2C IP für optimale GPU-Konnektivität und -Leistung empfohlen.

Maximierung des KI-Fabrik-Umsatzes

Die NVLink-Skalierungsstruktur verbessert die Produktivität von KI-Fabriken erheblich, indem sie das Gleichgewicht zwischen Durchsatz pro Watt und Latenz optimiert. NVIDIAs 72-GPU-Rack-Architektur spielt eine entscheidende Rolle bei der Erfüllung von KI-Rechenanforderungen und ermöglicht optimale Inferenzleistung in verschiedenen Anwendungsfällen. Die Fähigkeit der Technologie, Konfigurationen zu skalieren, maximiert Umsatz und Leistung, selbst wenn die NVLink-Geschwindigkeit konstant bleibt.

Ein robustes Partner-Ökosystem

NVLink Fusion profitiert von einem umfangreichen Silizium-Ökosystem, einschließlich Partnern für kundenspezifisches Silizium, CPUs und IP-Technologie, was breite Unterstützung und schnelle Design-In-Fähigkeiten gewährleistet. Das Systempartnernetzwerk und Anbieter von Rechenzentrumsinfrastrukturkomponenten bauen bereits NVIDIA GB200 NVL72- und GB300 NVL72-Systeme und beschleunigen so die Markteinführungszeit für Anwender.

Fortschritte im KI-Reasoning

NVLink stellt einen bedeutenden Sprung bei der Bewältigung des Rechenbedarfs im Zeitalter des KI-Reasonings dar. Durch die Nutzung eines Jahrzehnts an Expertise in NVLink-Technologien und der offenen Standards der OCP MGX-Rack-Architektur stattet NVLink Fusion Hyperscaler mit außergewöhnlicher Leistung und Anpassungsoptionen aus.

Bildquelle: Shutterstock


Quelle: https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.