Il post NVIDIA NVLink e Fusion Drive Migliorano le Prestazioni di Inferenza IA è apparso su BitcoinEthereumNews.com. Rongchai Wang 22 ago 2025 07:13 Le tecnologie NVLink e NVLink Fusion di NVIDIA stanno ridefinendo le prestazioni di inferenza IA con Scalabilità e flessibilità migliorate per soddisfare la crescita esponenziale nella complessità dei modelli IA. Il rapido avanzamento nella complessità dei modelli di intelligenza artificiale (IA) ha aumentato significativamente il conteggio dei parametri da milioni a trilioni, richiedendo risorse computazionali senza precedenti. Questa evoluzione richiede cluster di GPU per gestire il carico, come evidenziato da Joe DeLaere in un recente post sul blog di NVIDIA. Evoluzione e Impatto di NVLink NVIDIA ha introdotto NVLink nel 2016 per superare le limitazioni di PCIe nel calcolo ad alte prestazioni e nei carichi di lavoro IA, facilitando una comunicazione GPU-GPU più veloce e uno spazio di memoria unificato. La tecnologia NVLink si è evoluta significativamente, con l'introduzione di NVLink Switch nel 2018 che ha raggiunto una larghezza di banda all-to-all di 300 GB/s in una topologia a 8 GPU, aprendo la strada a tessuti di calcolo scalabili. Il NVLink di quinta generazione, rilasciato nel 2024, supporta 72 GPU con comunicazione all-to-all a 1.800 GB/s, offrendo una larghezza di banda aggregata di 130 TB/s—800 volte superiore alla prima generazione. Questo avanzamento continuo si allinea con la crescente complessità dei modelli IA e le loro esigenze computazionali. NVLink Fusion: Personalizzazione e Flessibilità NVLink Fusion è progettato per fornire agli hyperscaler l'accesso alle tecnologie di scale-up di NVLink, consentendo l'integrazione di silicio personalizzato con l'architettura di NVIDIA per l'implementazione di infrastrutture IA semi-personalizzate. La tecnologia comprende NVLink SERDES, chiplet, switch e architettura a scala rack, offrendo una soluzione modulare Open Compute Project (OCP) MGX rack per la flessibilità di integrazione. NVLink Fusion supporta configurazioni CPU e XPU personalizzate utilizzando Universal Chiplet Interconnect Express (UCIe) IP e interfaccia, fornendo ai clienti flessibilità per le loro esigenze di integrazione XPU su diverse piattaforme. Per configurazioni CPU personalizzate, l'integrazione di NVIDIA NVLink-C2C IP è raccomandata per una connettività e prestazioni GPU ottimali. Massimizzare i Ricavi della Fabbrica IA Il tessuto scale-up NVLink migliora significativamente la produttività della fabbrica IA ottimizzando l'equilibrio tra throughput...Il post NVIDIA NVLink e Fusion Drive Migliorano le Prestazioni di Inferenza IA è apparso su BitcoinEthereumNews.com. Rongchai Wang 22 ago 2025 07:13 Le tecnologie NVLink e NVLink Fusion di NVIDIA stanno ridefinendo le prestazioni di inferenza IA con Scalabilità e flessibilità migliorate per soddisfare la crescita esponenziale nella complessità dei modelli IA. Il rapido avanzamento nella complessità dei modelli di intelligenza artificiale (IA) ha aumentato significativamente il conteggio dei parametri da milioni a trilioni, richiedendo risorse computazionali senza precedenti. Questa evoluzione richiede cluster di GPU per gestire il carico, come evidenziato da Joe DeLaere in un recente post sul blog di NVIDIA. Evoluzione e Impatto di NVLink NVIDIA ha introdotto NVLink nel 2016 per superare le limitazioni di PCIe nel calcolo ad alte prestazioni e nei carichi di lavoro IA, facilitando una comunicazione GPU-GPU più veloce e uno spazio di memoria unificato. La tecnologia NVLink si è evoluta significativamente, con l'introduzione di NVLink Switch nel 2018 che ha raggiunto una larghezza di banda all-to-all di 300 GB/s in una topologia a 8 GPU, aprendo la strada a tessuti di calcolo scalabili. Il NVLink di quinta generazione, rilasciato nel 2024, supporta 72 GPU con comunicazione all-to-all a 1.800 GB/s, offrendo una larghezza di banda aggregata di 130 TB/s—800 volte superiore alla prima generazione. Questo avanzamento continuo si allinea con la crescente complessità dei modelli IA e le loro esigenze computazionali. NVLink Fusion: Personalizzazione e Flessibilità NVLink Fusion è progettato per fornire agli hyperscaler l'accesso alle tecnologie di scale-up di NVLink, consentendo l'integrazione di silicio personalizzato con l'architettura di NVIDIA per l'implementazione di infrastrutture IA semi-personalizzate. La tecnologia comprende NVLink SERDES, chiplet, switch e architettura a scala rack, offrendo una soluzione modulare Open Compute Project (OCP) MGX rack per la flessibilità di integrazione. NVLink Fusion supporta configurazioni CPU e XPU personalizzate utilizzando Universal Chiplet Interconnect Express (UCIe) IP e interfaccia, fornendo ai clienti flessibilità per le loro esigenze di integrazione XPU su diverse piattaforme. Per configurazioni CPU personalizzate, l'integrazione di NVIDIA NVLink-C2C IP è raccomandata per una connettività e prestazioni GPU ottimali. Massimizzare i Ricavi della Fabbrica IA Il tessuto scale-up NVLink migliora significativamente la produttività della fabbrica IA ottimizzando l'equilibrio tra throughput...

Prestazioni di Inferenza AI di NVIDIA NVLink e Fusion Drive

2025/08/22 17:30


Rongchai Wang
22 agosto 2025 05:13

Le tecnologie NVLink e NVLink Fusion di NVIDIA stanno ridefinendo le prestazioni di inferenza IA con scalabilità e flessibilità migliorate per soddisfare la crescita esponenziale della complessità dei modelli IA.





Il rapido avanzamento nella complessità dei modelli di intelligenza artificiale (IA) ha aumentato significativamente il conteggio dei parametri da milioni a trilioni, richiedendo risorse computazionali senza precedenti. Questa evoluzione richiede cluster di GPU per gestire il carico, come evidenziato da Joe DeLaere in un recente post sul blog di NVIDIA.

Evoluzione e Impatto di NVLink

NVIDIA ha introdotto NVLink nel 2016 per superare le limitazioni del PCIe nel calcolo ad alte prestazioni e nei carichi di lavoro IA, facilitando una comunicazione GPU-GPU più veloce e uno spazio di memoria unificato. La tecnologia NVLink si è evoluta significativamente, con l'introduzione di NVLink Switch nel 2018 che ha raggiunto una larghezza di banda all-to-all di 300 GB/s in una topologia a 8 GPU, aprendo la strada a tessuti di calcolo scalabili.

Il NVLink di quinta generazione, rilasciato nel 2024, supporta 72 GPU con comunicazione all-to-all a 1.800 GB/s, offrendo una larghezza di banda aggregata di 130 TB/s—800 volte superiore rispetto alla prima generazione. Questo avanzamento continuo si allinea con la crescente complessità dei modelli IA e le loro esigenze computazionali.

NVLink Fusion: Personalizzazione e Flessibilità

NVLink Fusion è progettato per fornire agli hyperscaler l'accesso alle tecnologie di scale-up di NVLink, consentendo l'integrazione di silicio personalizzato con l'architettura NVIDIA per l'implementazione di infrastrutture IA semi-personalizzate. La tecnologia comprende NVLink SERDES, chiplet, switch e architettura a scala rack, offrendo una soluzione modulare Open Compute Project (OCP) MGX rack per la flessibilità di integrazione.

NVLink Fusion supporta configurazioni CPU e XPU personalizzate utilizzando Universal Chiplet Interconnect Express (UCIe) IP e interfaccia, fornendo ai clienti flessibilità per le loro esigenze di integrazione XPU su diverse piattaforme. Per configurazioni CPU personalizzate, l'integrazione di NVIDIA NVLink-C2C IP è raccomandata per una connettività e prestazioni GPU ottimali.

Massimizzare i Ricavi della Fabbrica IA

Il tessuto scale-up di NVLink migliora significativamente la produttività della fabbrica IA ottimizzando l'equilibrio tra throughput per watt e latenza. L'architettura rack a 72 GPU di NVIDIA gioca un ruolo cruciale nel soddisfare le esigenze di calcolo IA, consentendo prestazioni di inferenza ottimali in vari casi d'uso. La capacità della tecnologia di scalare le configurazioni massimizza i ricavi e le prestazioni, anche quando la velocità di NVLink è costante.

Un Robusto Ecosistema di Partner

NVLink Fusion beneficia di un ampio ecosistema di silicio, inclusi partner per silicio personalizzato, CPU e tecnologia IP, garantendo un ampio supporto e rapide capacità di design-in. La rete di partner di sistema e i fornitori di componenti per infrastrutture di data center stanno già costruendo sistemi NVIDIA GB200 NVL72 e GB300 NVL72, accelerando il time to market degli adottanti.

Progressi nel Ragionamento IA

NVLink rappresenta un significativo passo avanti nell'affrontare la domanda di calcolo nell'era del ragionamento IA. Sfruttando un decennio di competenza nelle tecnologie NVLink e gli standard aperti dell'architettura rack OCP MGX, NVLink Fusion potenzia gli hyperscaler con prestazioni eccezionali e opzioni di personalizzazione.

Fonte dell'immagine: Shutterstock


Fonte: https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance

Disclaimer: gli articoli ripubblicati su questo sito provengono da piattaforme pubbliche e sono forniti esclusivamente a scopo informativo. Non riflettono necessariamente le opinioni di MEXC. Tutti i diritti rimangono agli autori originali. Se ritieni che un contenuto violi i diritti di terze parti, contatta service@support.mexc.com per la rimozione. MEXC non fornisce alcuna garanzia in merito all'accuratezza, completezza o tempestività del contenuto e non è responsabile per eventuali azioni intraprese sulla base delle informazioni fornite. Il contenuto non costituisce consulenza finanziaria, legale o professionale di altro tipo, né deve essere considerato una raccomandazione o un'approvazione da parte di MEXC.