Notebookcheck Logo

NVLink Fusion étend la structure informatique à faible latence aux CPU et accélérateurs tiers

Nvidia ouvre NVLink Fusion à un plus large écosystème de silicium. Photo : Bureau Endeavor de Nvidia (Source de l'image : Nvidia)
Nvidia ouvre NVLink Fusion à un plus large écosystème de silicium. Photo : Bureau Endeavor de Nvidia (Source de l'image : Nvidia)
NVLink Fusion de Nvidia apporte sa structure informatique NVLink à faible latence et à large bande passante hors puce sous la forme d'un minuscule chiplet. Elle offre une bande passante jusqu'à 14 fois supérieure à celle d'une voie PCIe tout en préservant l'accès sémantique à la mémoire entre les périphériques.

Nvidia a présenté sur https://nvidianews.nvidia.com/news/nvidia-nvlink-fusion-semi-custom-ai-infrastructure-partner-ecosystem NVLink Fusion, une interface au niveau de la puce qui étend la structure NVLink propriétaire de la société au-delà de ses processeurs. Annoncée à Computex 2025, cette nouvelle puce permet aux CPU tiers et aux accélérateurs personnalisés de partager le même chemin à faible latence et à large bande passante qui relie déjà les GPU Nvidia à l'intérieur des " usines d'IA " à l'échelle du rack

NVLink Fusion fait passer la technologie d'une connexion de carte à carte à une petite puce que les concepteurs peuvent placer à côté de leurs propres matrices de calcul. Le lien s'appuie toujours sur la signalisation PCIe habituelle, mais il fournit jusqu'à 14 fois la bande passante d'une voie PCIe standard tout en préservant l'accès sémantique à la mémoire entre les périphériques. Cette structure de mise à l'échelle complète les produits Spectrum-X Ethernet et Quantum-X InfiniBand de Nvidia, qui gèrent le trafic de mise à l'échelle dans les racks.

Plusieurs partenaires ont déjà signé. MediaTek, Marvell, Alchip, Astera Labs, Cadence et Synopsys fourniront des ASIC personnalisés, des blocs IP ou des services de conception qui utilisent le nouveau protocole. Du côté des CPU, Fujitsu prévoit d'associer son prochain processeur Monaka de 2 nm à 144 cœurs à NVLink Fusion, tandis que Qualcomm attachera l'interface à son CPU serveur basé sur Arm. Les deux fournisseurs souhaitent intégrer leurs puces dans les systèmes de référence à l'échelle du rack de Nvidia sans renoncer à l'accès direct au GPU.

Les opérateurs de cloud hyperscale peuvent mélanger ces composants compatibles avec NVLink Fusion avec les propres CPU Grace et GPU de classe Blackwellpuis assembler de grands îlots de GPU par le biais d'un réseau à 800 Gb/s. Le résultat est un chemin modulaire vers des clusters qui couvrent des milliers ou même des millions d'accélérateurs sans les pénalités de performance typiques des conceptions uniquement PCIe.

En concédant une licence sur un élément central de sa pile, Nvidia se positionne comme le tissu conjonctif du matériel d'IA hétérogène plutôt que comme un fournisseur de boîtes fermées. Les concurrents qui luttaient pour égaler la bande passante de NVLink peuvent désormais l'utiliser, mais ils doivent le faire dans le cadre plus large des logiciels et des réseaux de Nvidia.

Source(s)

Nvidia (en anglais)

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2025 05 > NVLink Fusion étend la structure informatique à faible latence aux CPU et accélérateurs tiers
Nathan Ali, 2025-05-20 (Update: 2025-05-20)