公開:

ASUSがNVIDIA GB300 NVL72搭載のAI PODを発表、兆パラメータLLMの処理能力が大幅に向上

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

ASUSがNVIDIA GB300 NVL72搭載のAI PODを発表、兆パラメータLLMの処理能力が大幅に向上

PR TIMES より


記事の要約

  • ASUSがNVIDIA GB300 NVL72搭載のAI PODを発表
  • NVIDIA Blackwell Ultra GPUを72個搭載し高性能な処理を実現
  • ASUS Ascent GX10など複数のAIサーバーを展開

ASUSが次世代AIインフラストラクチャーを展開

ASUSは2025年3月19日、NVIDIA GB300 NVL72プラットフォームを搭載した最新のASUS AI PODをGTC 2025で発表した。ASUS AI PODはNVIDIA Blackwell Ultra GPU 72個とGrace CPU 36個をラックスケールデザインで搭載しており、ラックごとに最大40TBの高速メモリを提供することが可能になっている。[1]

ASUS AI PODはNVIDIA Quantum-X800 InfiniBandとSpectrum-X Ethernetとのネットワーキングプラットフォーム統合を実現しており、100%液体冷却デザインを採用することでAIインフラストラクチャーにおける重要な進展を示している。SXM7およびSOCAMMモジュールの採用により、兆パラメータのLLM推論とトレーニングをサポートすることが可能だ。

ASUSはAIイノベーションの最前線に立ち、BlackwellおよびHGXファミリーの最新AIサーバーも展示している。NVIDIA B300 NVL16を搭載したASUS XA NB3I-E12やNVIDIA B200 8-GPUを搭載したASUS ESC NB8-E11など、包括的なインフラソリューションを提供することで市場投入時間の短縮を支援している。

最新AIインフラストラクチャーの特徴まとめ

ASUS AI POD ASUS XA NB3I-E12 ASUS ESC NB8-E11
搭載GPU NVIDIA Blackwell Ultra GPU 72個 NVIDIA B300 NVL16 NVIDIA B200 8-GPU
メモリ容量 最大40TB 2.3TB HBM3e -
冷却方式 100%液体冷却 - -
ASUSサーバーの詳細はこちら

兆パラメータLLMについて

兆パラメータLLMとは、1兆個以上のパラメータを持つ大規模言語モデルのことを指しており、主な特徴として以下のような点が挙げられる。

  • 膨大な量のデータを処理し高度な言語理解が可能
  • 複雑なAIタスクを高精度で実行可能
  • 大規模な計算リソースと専用インフラが必要

ASUS AI PODは兆パラメータLLMの推論とトレーニングをサポートする高性能なインフラストラクチャーとして設計されており、NVIDIA GB300 NVL72プラットフォームと72個のNVIDIA Blackwell Ultra GPUを組み合わせることで画期的なパフォーマンスを実現している。AIモデルの大規模化が進む中、高速なメモリと効率的な冷却システムを備えたインフラの重要性が増している。

参考サイト

  1. ^ PR TIMES. 「ASUS、NVIDIA GB300 NVL72搭載のASUS AI PODを発表 | ASUS JAPAN株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000001443.000017808.html, (参照 25-03-20).
  2. 6016
  3. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。