公開:

アスクがASUS製AIサーバー「ESC N8-E11」を発売、8基のNVIDIA HGX H100搭載で大規模AI処理が可能に

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

アスクがASUS製AIサーバー「ESC N8-E11」を発売、8基のNVIDIA HGX H100搭載で大規模AI処理が可能に

PR TIMES より


記事の要約

  • アスクがASUS製AIサーバー「ESC N8-E11」を発売
  • 8基のNVIDIA HGX H100 GPUを搭載
  • 大規模AIとHPC向けに設計された高性能サーバー

ASUS社製AIサーバー「ESC N8-E11」の取り扱い開始

株式会社アスクは、8基のNVIDIA HGX H100を搭載したASUS社製AIサーバー「ESC N8-E11」の取り扱いを2024年10月1日より開始した。NVIDIA HGXアーキテクチャを備えたこのサーバーは、大規模AIおよび高性能コンピューティング(HPC)向けに設計されており、2基の第5世代 Intel Xeonスケーラブルプロセッサを搭載している。[1]

「ESC N8-E11」は、最大12基のPCI Expressスロット、32基のDIMM、10基のNVMe、デュアル10G LANをサポートしており、多様なコンピューティングニーズに対応可能だ。この高性能サーバーは、大規模な機械学習モデルの訓練やインファレンス、複雑な科学シミュレーションなど、計算負荷の高いタスクに最適な選択肢となるだろう。

アスクは、ASUSTeK Computer Inc(ASUS)の代理店として、世界第1位のマザーボード生産量を誇るASUSの製品を日本市場に提供している。「ESC N8-E11」の発売により、日本国内の企業や研究機関がより高度なAI研究や開発を行うための強力なツールが提供されることになる。製品の詳細や見積もりに関する問い合わせは、アスクのウェブサイトから行うことが可能だ。

ASUS社製AIサーバー「ESC N8-E11」の主な特徴

項目 詳細
GPU 8基のNVIDIA HGX H100
CPU 2基の第5世代 Intel Xeonスケーラブルプロセッサ
拡張性 最大12基のPCI Expressスロット
メモリ 32基のDIMMスロット
ストレージ 10基のNVMeサポート
ネットワーク デュアル10G LANサポート
主な用途 大規模AI、高性能コンピューティング(HPC)
製品の詳細はこちら

NVIDIA HGX H100について

NVIDIA HGX H100は、NVIDIAが開発した高性能GPUアクセラレータであり、主に大規模AIワークロードや高性能コンピューティング向けに設計されている。以下に、NVIDIA HGX H100の主な特徴を示す。

  • 最新のHopperアーキテクチャを採用し、前世代比で大幅な性能向上
  • 80GB HBM3メモリを搭載し、大規模なAIモデルの処理に対応
  • NVLinkテクノロジーによる高速なGPU間通信を実現

NVIDIA HGX H100は、AIトレーニングやインファレンス、科学計算、データ解析など、計算負荷の高いタスクを高速に処理することが可能だ。ASUS社製AIサーバー「ESC N8-E11」に8基搭載されることで、大規模な並列処理や複雑なシミュレーションを効率的に実行できる環境を提供する。この高性能GPUの採用により、研究機関や企業は最先端のAI技術や科学的発見に向けた取り組みを加速させることが期待できる。

参考サイト

  1. ^ PR TIMES. 「8基のNVIDIA HGX H100を搭載したASUS社製AIサーバー「ESC N8-E11」の取り扱いを開始 | 株式会社 アスクのプレスリリース」. https://prtimes.jp/main/html/rd/p/000000816.000008686.html, (参照 24-10-02).
  2. Intel. https://www.intel.co.jp/content/www/jp/ja/homepage.html
  3. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。