公開:

ASUSがNVIDIA GB200 NVL72搭載AI PODを発表、2025年3月より大規模AIコンピューティング基盤の提供開始へ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

ASUSがNVIDIA GB200 NVL72搭載AI PODを発表、2025年3月より大規模AIコンピューティング基盤の提供開始へ

PR TIMES より


記事の要約

  • ASUSがNVIDIA GB200 NVL72搭載のAI PODを発表
  • 2025年3月より出荷開始へ
  • AIコンピューティング向けの包括的なソリューションを提供

NVIDIA GB200 NVL72搭載ASUS AI PODの量産と出荷計画

ASUS JAPAN株式会社は、NVIDIA GB200 NVL72プラットフォームを搭載したASUS AI PODの増産準備が整い、2025年3月より出荷を開始する予定であることを2024年2月4日に発表した。ASUSはAIスーパーコンピューティングからクラウドサービスまで包括的なエンドツーエンドのソリューションとソフトウェアサービスを提供することに注力している。[1]

ASUS AI PODはNVIDIA GB200 Grace Blackwell SuperchipとNVIDIA NVLinkインターコネクト技術を搭載することで、数兆パラメータの言語モデルのトレーニングからリアルタイムAI推論の実行まで幅広いタスクに対応が可能になった。72個のNVIDIA Blackwell GPUを搭載し、リアルタイム推論性能を30倍に向上させる強力なシステムを実現している。

ASUSは先進的な液冷ソリューションとして水-空気交換と水-水交換の両方の冷却方式をサポートしており、効果的な放熱を確保しながらエネルギー効率の高いAIコンピューティングパフォーマンスを実現した。キャビネットレベルでCPU/GPUコールドプレート、冷却分配ユニット、冷却タワーを統合し、データセンターの電力使用効率を最大化している。

ASUS AI PODの主要機能まとめ

項目 詳細
GPU構成 72個のNVIDIA Blackwell GPU搭載
性能向上 リアルタイム推論性能が30倍に向上
冷却方式 水-空気交換、水-水交換の両方をサポート
主要技術 NVIDIA GB200 Grace Blackwell Superchip、第5世代NVIDIA NVLink
用途 数兆パラメータのLLMトレーニング、リアルタイムAI推論
ASUS AI PODの詳細はこちら

NVLinkについて

NVLinkとは、NVIDIAが開発した高速なGPU間相互接続技術のことを指しており、主な特徴として以下のような点が挙げられる。

  • GPU間の超高速データ転送を実現する専用インターコネクト
  • 低遅延で大容量のデータ通信が可能
  • 複数GPUを効率的に連携させるスケーラブルな構造

ASUS AI PODに搭載される第5世代NVLink技術により、72個のNVIDIA Blackwell GPUをシームレスに接続することが可能になった。複数のGPUを統合することで、大規模な言語モデルのトレーニングやAI推論処理において高いスループットと効率的な並列処理を実現するのだ。

参考サイト

  1. ^ PR TIMES. 「NVIDIA GB200 NVL72プラットフォームを搭載したASUS AI PODの量産と出荷を発表 | ASUS JAPAN株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000001416.000017808.html, (参照 25-02-04).
  2. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。