Rongchai Wang
22 de agosto de 2025 05:13
Las tecnologías NVLink y NVLink Fusion de NVIDIA están redefiniendo el rendimiento de inferencia de IA con mayor escalabilidad y flexibilidad para satisfacer el crecimiento exponencial en la complejidad de los modelos de IA.
El rápido avance en la complejidad de los modelos de inteligencia artificial (IA) ha aumentado significativamente el recuento de parámetros de millones a billones, lo que requiere recursos computacionales sin precedentes. Esta evolución exige clústeres de GPUs para gestionar la carga, como destacó Joe DeLaere en una reciente publicación del blog de NVIDIA.
Evolución e Impacto de NVLink
NVIDIA introdujo NVLink en 2016 para superar las limitaciones de PCIe en la computación de alto rendimiento y cargas de trabajo de IA, facilitando una comunicación más rápida entre GPUs y un espacio de memoria unificado. La tecnología NVLink ha evolucionado significativamente, con la introducción de NVLink Switch en 2018 logrando un ancho de banda de 300 GB/s en una topología de 8 GPUs, allanando el camino para tejidos de computación escalables.
La quinta generación de NVLink, lanzada en 2024, soporta 72 GPUs con comunicación total a 1.800 GB/s, ofreciendo un ancho de banda agregado de 130 TB/s—800 veces más que la primera generación. Este avance continuo se alinea con la creciente complejidad de los modelos de IA y sus demandas computacionales.
NVLink Fusion: Personalización y Flexibilidad
NVLink Fusion está diseñado para proporcionar a los hiperescaladores acceso a las tecnologías de escalabilidad de NVLink, permitiendo la integración de silicio personalizado con la arquitectura de NVIDIA para el despliegue de infraestructura de IA semi-personalizada. La tecnología abarca NVLink SERDES, chiplets, switches y arquitectura a escala de rack, ofreciendo una solución modular de rack MGX del Open Compute Project (OCP) para flexibilidad de integración.
NVLink Fusion soporta configuraciones personalizadas de CPU y XPU utilizando IP e interfaz Universal Chiplet Interconnect Express (UCIe), proporcionando a los clientes flexibilidad para sus necesidades de integración XPU en todas las plataformas. Para configuraciones de CPU personalizadas, se recomienda integrar NVIDIA NVLink-C2C IP para una conectividad y rendimiento óptimos de GPU.
Maximizando los Ingresos de la Fábrica de IA
El tejido de escalabilidad NVLink mejora significativamente la productividad de la fábrica de IA optimizando el equilibrio entre el rendimiento por vatio y la latencia. La arquitectura de rack de 72 GPUs de NVIDIA juega un papel crucial en la satisfacción de las necesidades de cómputo de IA, permitiendo un rendimiento de inferencia óptimo en varios casos de uso. La capacidad de la tecnología para escalar configuraciones maximiza los ingresos y el rendimiento, incluso cuando la velocidad de NVLink es constante.
Un Ecosistema de Socios Robusto
NVLink Fusion se beneficia de un extenso ecosistema de silicio, incluyendo socios para silicio personalizado, CPUs y tecnología IP, asegurando un amplio soporte y capacidades rápidas de diseño. La red de socios de sistemas y proveedores de componentes de infraestructura de centros de datos ya están construyendo sistemas NVIDIA GB200 NVL72 y GB300 NVL72, acelerando el tiempo de comercialización de los adoptantes.
Avances en el Razonamiento de IA
NVLink representa un salto significativo en la atención a la demanda de cómputo en la era del razonamiento de IA. Al aprovechar una década de experiencia en tecnologías NVLink y los estándares abiertos de la arquitectura de rack OCP MGX, NVLink Fusion empodera a los hiperescaladores con un rendimiento excepcional y opciones de personalización.
Fuente de la imagen: Shutterstock
Fuente: https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance


