Laut Nachrichten dieser Website vom 19. März hat NVIDIA auf der heute stattfindenden GTC-Entwicklerkonferenz den DGX SuperPOD für die Verarbeitung von Billionen-Parameter-KI-Modellen vorgestellt, der eine stabile Leistung für extrem große generative KI-Trainings- und Inferenz-Workloads bietet.
Diese Seite hat aus Berichten erfahren, dass der neue DGX SuperPOD eine neue hocheffiziente wassergekühlte Rack-Architektur verwendet und mit dem NVIDIA DGX GB200-System ausgestattet ist. Es bietet 11,5 Exaflops Super-Rechenleistung mit künstlicher Intelligenz und 240 Exaflops Terabytes an Geschwindigkeit bei FP4-Speicher können Kunden durch das Hinzufügen von Racks weiter ausbauen.
Jedes DGX GB200-System verfügt über 36 NVIDIA GB200-Beschleunigerkarten, darunter 36 NVIDIA Grace-CPUs und 72 NVIDIA Blackwell-GPUs, die über NVIDIA NVLink der fünften Generation mit einem Supercomputer verbunden sind.
Die GB200-Beschleunigerkarte bietet im Vergleich zur NVIDIA H100 Tensor Core GPU eine bis zu 30-mal bessere Leistung bei Inferenz-Workloads mit großen Sprachmodellen.
DGX SuperPOD enthält 8 oder mehr DGX GB200-Systeme, die über NVIDIA Quantum InfiniBand verbunden sind, und kann auf Zehntausende GB200-Beschleunigerkarten erweitert werden.
Die derzeit von NVIDIA für Kunden bereitgestellte Standardkonfiguration umfasst 576 Blackwell-GPUs, die über NVLink mit 8 DGX GB200-Systemen verbunden sind.
Jensen Huang, Gründer und CEO von NVIDIA, sagte:
Der Supercomputer NVIDIA DGX für künstliche Intelligenz ist die Fabrik der Revolution in der Branche der künstlichen Intelligenz. Der neue DGX SuperPOD kombiniert die neuesten Fortschritte in den Bereichen NVIDIA Accelerated Computing, Networking und Software, um es jedem Unternehmen, jeder Branche und jedem Land zu ermöglichen, ihre eigene künstliche Intelligenz zu verfeinern und zu generieren.
Das obige ist der detaillierte Inhalt vonNVIDIA nutzt KI-Modelle mit Billionen Parametern und bringt den Blackwell-basierten Supercomputer DGX SuperPOD auf den Markt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!