公開:

HPCシステムズがNVIDIA Blackwell搭載の最新GPUサーバーを発表、大規模ローカルLLM環境の構築が容易に

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

HPCシステムズがNVIDIA Blackwell搭載の最新GPUサーバーを発表、大規模ローカルLLM環境の構築が容易に

PR TIMES より


記事の要約

  • HPCシステムズがNVIDIA Blackwell搭載GPUサーバーを発表
  • 最大級LLMの動作に対応する1.44TBのGPUメモリを搭載
  • ローカルLLM環境の導入・運用をワンストップで実現

最新GPUサーバーでローカルLLM環境構築が容易に

HPCシステムズ株式会社は、NVIDIA HGX B200を8基搭載したハイエンドGPUサーバー「HPC5000-XGRAGPU8R10S-NVL」を中核とする、ローカルLLM環境の導入・運用をワンストップで実現するソリューションを2025年2月20日に提供開始した。クラウド型のチャットAIで懸念されている情報漏洩やプライバシーの問題を解決し、企業や研究機関における機密性の高い情報処理を可能にするものだ。[1]

本製品は180GBのGPUメモリを8基搭載し、合計1.44TBの大容量メモリを実現することで、現在最大級のLLMの動作にも対応している。Metaが開発したLlama 3の最大モデル(405Bパラメータ)が必要とする約810GBのメモリ容量を大幅に上回り、より大規模なモデルや複数モデルの同時実行も視野に入れた設計となっている。

さらに主要なLLM関連ソフトウェアが事前インストールされ、複数チームでのリソース共有やジョブ管理を効率化するSlurm Workload Managerの構築・運用もサポートする。NVIDIAのELITE PARTNERとして認定されたHPCシステムズの専門家による、環境構築から運用後の保守・技術サポートまでのトータルサポート体制も整備されている。

最新GPUサーバーの性能まとめ

性能指標 詳細
GPU性能 FP8精度で72PFLOPS(前世代比2倍以上)
GPUメモリ容量 1.44TB(前世代比約1.3倍)
メモリ帯域幅 8TB/s(前世代比約1.7倍)
NV Switch GPU間帯域 1.8TB/s(前世代比2倍)
搭載GPU NVIDIA B200 SXM6 180GB ×8
システムメモリ 3TB(128GB DDR5-6400 ECC Registered ×24)
製品の詳細はこちら

ローカルLLMについて

ローカルLLMとは、大規模言語モデルを自社環境で運用するシステムのことを指しており、主な特徴として以下のような点が挙げられる。

  • クラウド利用に伴う従量課金が発生しない
  • 情報漏洩やプライバシー上の問題を解決
  • 機密性の高い情報を安全に処理可能

近年、より高度なタスクに対応できる数百億~数千億規模のパラメータを持つ高性能LLMへのニーズが高まっている。これらの高性能LLMは、より自然な文章生成や高度な質問応答、複雑な推論などが可能であり、研究開発やコンテンツ生成、顧客対応など幅広い分野での活用が期待されている。

参考サイト

  1. ^ PR TIMES. 「HPCシステムズ、NVIDIA最新Blackwell搭載GPUサーバーとソフトウェアパッケージでローカルLLM導入を加速するターンキーソリューションを提供開始 | HPCシステムズ株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000000014.000038530.html, (参照 25-02-22).
  2. Meta. https://about.meta.com/ja/
  3. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。