InfiniBand è uno standard di comunicazione ad alta velocità, sviluppato principalmente per HPC (High Performance Computing) e utilizzato nei moderni supercomputer.
Può essere utilizzato sia per comunicazioni inter-nodo, in alternativa a Ethernet, o intra-nodo, in particolar modo per le comunicazioni CPU-storage. A livello datalink, le comunicazioni avvengono sempre punto a punto e le reti possono essere create attraverso switch.
NVIDIA è uno dei maggiori produttori di circuiti integrati InfiniBand e ha realizzato una piattaforma capace di gestire tutti quei carichi di lavoro complessi che richiedono un’elaborazione ultraveloce di simulazioni ad alta risoluzione, dataset di dimensioni estreme e algoritmi altamente parallelizzati.
Questa piattaforma è Quantum-2 InfiniBand, l’unica piattaforma di calcolo in rete completamente gestibile in offload e ideale per aumentare le prestazioni nelle infrastrutture HPC e hyperscale.
NVIDIA Quantum-2
La piattaforma NVIDIA Quantum-2 InfiniBand offre agli sviluppatori di IA e ai ricercatori scientifici le più alte prestazioni di networking disponibili.
Gli innovativi motori di accelerazione NVIDIA In-Network Computing forniscono una latenza bassissima e scalabile che incorpora tecnologie all’avanguardia come l’accesso diretto remoto alla memoria (RDMA), il routing adattivo e il protocollo NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™.
Continua infatti a stabilire record mondiali per il networking ad alte prestazioni, offrendo una larghezza di banda di 400 Gb/s per porta – 2 volte superiore rispetto alla generazione precedente – e la possibilità di collegare oltre un milione di nodi a 400Gb/s in una topologia Dragonfly+ a 3 hop.
È dotata della terza generazione della tecnologia NVIDIA SHARP e consente una scalabilità virtualmente illimitata per l’aggregazione di dati di grandi dimensioni attraverso la rete, con una potenza di accelerazione dell’Intelligenza Artificiale 32 volte superiore rispetto alla precedente generazione.
Inoltre, la terza generazione della tecnologia SHARP permette a di condividere l’infrastruttura con più tenant o più applicazioni in parallelo, senza alcuna riduzione delle prestazioni.
Tutto il portfolio di NVIDIA InfiniBand
Del portfolio NVIDIA InfiniBand fanno parte in primis gli Smart Network Interface Cards (SMARTNIC) ConnectX InfiniBand, che riducono i costi per operazione, aumentando il ROI per il calcolo ad alte prestazioni (HPC), il machine learning, lo storage avanzato, i database in cluster e le applicazioni I/O integrate a bassa latenza.
Ci sono poi le Data Processing Unit (DPU) NVIDIA Bluefield, capaci di ridurre il carico dei data center, delle infrastrutture di supercomputing e degli ambienti cloud ed edge, accelerando e isolando una vasta gamma di servizi di rete e storage.
NVIDIA InfiniBand offre anche una gamma completa di sistemi switch e gestione del fabric per la connessione del supercomputing nativa per il cloud su qualsiasi scala, oltre a funzionalità di rete con autoriparazione, una qualità del servizio migliorata (QoS), il controllo della congestione e il routing adattivo per fornire la massima velocità effettiva complessiva dell’applicazione.
Per i sistemi gateway e router, NVIDIA ha realizzato NVIDIA Skyway, che consente una connettività ad alte prestazioni e a bassa latenza da NVIDIA Quantum 200 Gb/s InfiniBand a Ethernet 100/200 Gb/s e assicura agli amministratori IT di adattarsi all’aumento della domanda degli utenti nel tempo.
Per i sistemi a lungo raggio, le infrastrutture remote e i sistemi periferici, invece, NVIDIA ha lanciato NVIDIA® MetroX® Long-Haul, sistemi che collegano facilmente data center InfiniBand remoti e storage con un’estensione della portata su infrastrutture DWDM (Wavelength Division Multiplexing).
Completano il portfolio i transceiver e i cavi NVIDIA Networking per Ethernet e HDR e NDR e per applicazioni cloud, HPC, Web 2.0, Enterprise, intelligenza artificiale, telecomunicazioni e data center.
I cavi e i transceiver LinkX vengono spesso utilizzati per collegare gli switch top-of-rack verso il basso agli adattatori di rete nelle GPU NVIDIA, nei server CPU e nello storage e/o verso l’alto nelle applicazioni switch-to-switch in tutta l’infrastruttura di rete.
Comments are closed.