# コロケーション データセンターは通常、数十、場合によっては数百の顧客の多様なアプリケーションに対応できるように設計されています。ただし、Nvidia は、単一の顧客向けに特定のアプリケーションの実行に特化した独自のデータセンター モデルを提供しています。
この新しいタイプのデータセンターは、従来のデータセンターとは異なり、より効率的で柔軟なインフラストラクチャ サービスの提供に重点を置いています。従来のデータセンターは多くの場合、複数のアプリケーションや複数のテナントをホストしますが、新しいデータセンターは、さまざまなアプリケーションやテナントのニーズを満たすために、リソースの動的な割り当てと最適化に重点を置いています。この新しいデータセンターの設計はより柔軟でインテリジェントであり、需要に応じてリソースの割り当てをリアルタイムで調整できるため、全体的な効率とパフォーマンスが向上します。この革新的な設計コンセプトにより、これらの新しいデータセンターは主に、通常は単一のテナントによって使用される少数のアプリケーションをホストするために使用されます。データの処理、モデルのトレーニング、人工知能を生成するためのトークンの生成を担当します。私たちはこれらの新しいデータセンターを「AI ファクトリー」と呼んでいます。
人工知能工場は至る所で見られる現象になりました。すべての主要国と同様に、ほぼすべての主要地域が独自の AI クラウドを導入すると私は考えています。つまり、私たちは重要な転換点であるコンピューティング変革の始まりにいます。
現在、この傾向はインド、スウェーデン、日本、フランスなどの国々で徐々に現れています。人工知能を効果的に使用するには、各国間の言語と文化の違いを考慮する必要があります。人工知能に対する需要も、日本やスウェーデンなど国によって異なります。このため、AI データセンターとシングルテナント AI ファクトリーは特定の国に限定される傾向があります。
人工知能の導入規模を評価するデータ センター ラックの消費電力は通常 6kW ~ 8kW とされています。ただし、LLM を実行するために最適化されたサーバーが必要な場合、単一サーバーの消費電力は約 11kW になります。これは、汎用サーバー約 14 台の平均消費電力に相当します。
この場合、一般的なデータ センターでは、限られた数の GPU サーバー (DGXH100 など) のみを実行できます。1MW のデータ センターがある場合、そこに約 50 台の DGXH100 サーバーを展開できます。 AI を多数の同時ユーザーに大規模に展開するには、そのようなサーバーの大規模なクラスターが必要になります。これは、一般的なデータセンターが限られた数の顧客のニーズにのみ対応できることを意味し、おそらく 1 人の顧客のみに対応できます。
人工知能ファクトリーの将来AI クラスターの消費電力は、多数のサーバーを備えたデータ センターの制限要因となるため、これらのデータ センターの一部は AI 専用になる可能性があります。 AI を取り巻く安全性と規制の枠組みも、この傾向を促進する可能性があります。生成的および一般的な人工知能の成長により、セキュリティとコンプライアンスに関するいくつかの問題が生じるため、企業はそのようなワークロードを安全性の高い専用施設から実行することを決定する可能性があります。
人工知能ファクトリーとデータセンター従来のデータセンターと AI ファクトリーのもう 1 つの違いは、その場所です。巨大なデータセンターは再生可能エネルギー源に隣接した遠隔地に建設される傾向がありますが、AI ファクトリーは都市の中心部や大都市圏、および利用可能な電力が大量にある既存の施設に建設できます。
現時点では十分に活用されていないオフィスや小売スペースがたくさんありますが、非常に魅力的なのは、放棄された建物や十分に活用されていない都市空間、あるいは人里離れた場所にある古い倉庫の一部です。すでに電力が供給されているので、AI 機器や液体冷却装置を設置し、プラグを差し込むことができます。
データセンター業界の将来を予測することは不可能ですが、人工知能の急速な成長は、デジタルインフラストラクチャ事業者が増大する需要に対応するために急ぐ中、AIファクトリーがすぐに必要になる可能性を示唆しています。
以上がシングルテナントの AI ファクトリーが最新のデータセンターのトレンドになるでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。