公開:

デル・テクノロジーズがDell AI Factoryに新機能を追加、高密度AIコンピューティングの実現で企業のAI導入を加速

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • Dell AI Factoryに新機能追加
  • 高密度コンピューティング実現
  • AIワークロード向け性能向上

Dell AI Factoryの新機能で高密度AIコンピューティングを実現

デル・テクノロジーズは2024年10月15日、高密度コンピューティングとAIワークロードの大規模展開を支援する新機能を「Dell AI Factory」に追加したことを発表した。新たに導入された「Dell Integrated Rack 7000」は、スケーラブルな電力管理機能と液冷式の高密度コンピュート アーキテクチャーを提供し、AIワークロードの効率的な処理を可能にしている。[1]

「Dell PowerEdge XE9712」は、大規模言語モデル(LLM)のトレーニングとリアルタイム推論に特化したNVIDIA GB200 NVL72ベースのプラットフォームだ。このサーバーは、最大規模のAI GPUクラスタ向けに設計されており、高度な並列処理能力を持つことで、複雑なAIタスクの高速化を実現している。

さらに、「Dell PowerScale」の機能強化により、AIワークロードのパフォーマンスが大幅に向上した。容量の増加やデータの発見可能性の向上に加え、NVIDIA DGX SuperPO D認定イーサーネット ストレージとしての機能も備えている。これらの新機能により、企業はより効率的にAIプロジェクトを展開し、データセンターの性能を最大限に引き出すことが可能になるだろう。

Dell AI Factoryの新機能まとめ

Dell Integrated Rack 7000 Dell PowerEdge XE9712 Dell PowerScale
主な特徴 液冷式高密度コンピューティング LLMトレーニングと推論に特化 AIワークロード性能向上
技術基盤 OCP標準ベース NVIDIA GB200 NVL72 NVIDIA DGX SuperPOD認定
冷却能力 最大480KW データなし データなし
提供開始時期 2025年第1四半期 サンプル提供中 2024年第4四半期

大規模言語モデル(LLM)について

大規模言語モデル(LLM)とは、膨大な量のテキストデータを学習し、人間の言語を理解・生成する能力を持つAIモデルのことを指している。主な特徴として以下のような点が挙げられる。

  • 数十億から数兆のパラメーターを持つ大規模なニューラルネットワーク
  • 自然言語処理タスクにおいて高い性能を発揮
  • 文章生成、質問応答、翻訳など多様なタスクに対応可能

Dell PowerEdge XE9712は、このLLMのトレーニングとリアルタイム推論に特化したサーバーである。NVIDIA GB200 NVL72アーキテクチャーを採用することで、最大72基のNVIDIA Blackwell GPUを単一のラックスケール デザインで接続し、数兆規模のパラメーターを持つLLM推論の処理速度を従来比で最大30倍に高速化している。これにより、企業は高度なAI機能をより効率的に実装することが可能になるだろう。

参考サイト

  1. ^ PR TIMES. 「デル・テクノロジーズ、「Dell AI Factory」の新たな機能を発表 冷却テクノロジー、高密度コンピューティング、AIストレージなどにより、データセンターを変革 | デル・テクノロジーズ株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000000303.000025237.html, (参照 24-10-22).
  2. Dell. https://www.dell.com/ja-jp
  3. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。