3 月 19 日のこのサイトのニュースによると、今日開催された GTC 開発者カンファレンスで、NVIDIA は、超大規模な生成 AI トレーニングと推論ワークロードに安定性を提供する、兆パラメーターの AI モデルを処理するための DGX SuperPOD を発表しました。出力。
このサイトは、新しい DGX SuperPOD が新しい高効率水冷ラックマウント アーキテクチャを採用し、NVIDIA DGX GB200 システムを搭載し、11.5 を提供することをレポートから知りました。 FP4 精度のエクサフロップス人工知能スーパーコンピューティング能力と 240 テラバイトの高速メモリにより、ラックを追加することでさらに拡張できます。
各 DGX GB200 システムには、36 個の NVIDIA GB200 アクセラレータ カード (36 個の NVIDIA Grace CPU と 72 個の NVIDIA Blackwell GPU を含む) があり、第 5 世代の NVIDIA NVLink を介してスーパーコンピューターに接続されています。
GB200 アクセラレータ カードは、NVIDIA H100 Tensor コア GPU と比較して、大規模な言語モデル推論ワークロードで最大 30 倍優れたパフォーマンスを実現します。
DGX SuperPOD には、NVIDIA Quantum InfiniBand 経由で接続された 8 つ以上の DGX GB200 システムが含まれており、数万の GB200 アクセラレータ カードに拡張できます。
NVIDIA の顧客向けの現在のデフォルト構成には、NVLink 経由で 8 台の DGX GB200 システムに接続された 576 台の Blackwell GPU が含まれています。
NVIDIA の創設者兼 CEO であるジェンスン ファンは次のように述べています:
NVIDIA DGX 人工知能スーパーコンピューターは、人工知能産業革命の工場です。新しい DGX SuperPOD は、NVIDIA アクセラレーション コンピューティング、ネットワーキング、ソフトウェアの最新の進歩を組み合わせて、あらゆる企業、業界、国が独自の人工知能を洗練し、生成できるようにします。
以上が兆パラメータの AI モデルを利用して、NVIDIA が Blackwell ベースの DGX SuperPOD スーパーコンピュータを発売の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。