公開:

ハイレゾがNVIDIA H200搭載のAIスパコンクラウドを提供開始、業界最安級の料金で大規模LLM処理が可能に

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

ハイレゾがNVIDIA H200搭載のAIスパコンクラウドを提供開始、業界最安級の料金で大規模LLM処理が可能に

PR TIMES より


記事の要約

  • ハイレゾがNVIDIA H200搭載のAIスパコンクラウドを提供開始
  • GPUメモリ1128GBを搭載し大規模LLMモデルの処理が可能
  • 業界最安級の料金でHGX H200を提供

NVIDIA H200搭載のAIスパコンクラウドがGPUSOROBANで利用可能に

株式会社ハイレゾは、LLMやマルチモーダルAIに最適なNVIDIA H200を搭載した「AIスパコンクラウド」のサービスを2024年12月2日に提供開始した。業界最安級の料金でHGX H200インスタンスが利用可能となり、H100の1.7倍となるGPUメモリ1128GBを搭載することで大規模なLLMモデルの処理性能が大幅に向上している。[1]

AIスパコンクラウドはGPUインスタンスを1台から専有利用することが可能で、利用までの順番待ちが発生しない仕組みとなっている。コンテナによる環境構築にも対応しており、Python、PyTorch、TensorFlow、JupyterLabなどの機械学習に必要な環境を柔軟に構築できるのが特徴だ。

株式会社ハイレゾは2019年より石川県志賀町で国内最大級のGPUデータセンターを運営しており、2024年12月には香川県に中四国地方初となるAI開発用GPU専用データセンターの開設を予定している。2025年以降には佐賀県玄海町の廃校を利活用したGPUデータセンターの新設も計画しており、地方創生とAI開発の両立を目指している。

AIスパコンクラウドの主な特徴まとめ

項目 詳細
GPUメモリ容量 1128GB(H100の1.7倍)
価格 海外大手企業のHGX H100と比較し約70%安い料金
対応環境 Python、PyTorch、TensorFlow、JupyterLab
利用形態 1台からクラスタ構成まで専有利用可能
初期費用 無料
AIスパコンクラウドの詳細はこちら

LLMについて

LLMとは「Large Language Model(大規模言語モデル)」の略称で、膨大な量のテキストデータから学習した自然言語処理モデルのことを指す。主な特徴として、以下のような点が挙げられる。

  • 大量のテキストデータから言語パターンを学習
  • 文章生成や質問応答などの高度な言語処理が可能
  • 大規模なGPUメモリを必要とする処理特性

LLMの学習や推論には大量のGPUメモリが必要となるため、NVIDIA H200のような大容量メモリを搭載したGPUが重要な役割を果たす。GPUSOROBANのAIスパコンクラウドでは、1128GBという大容量メモリにより、より大規模なLLMモデルの処理や学習が可能となっている。

参考サイト

  1. ^ PR TIMES. 「GPUSOROBANを展開するハイレゾがNVIDIA H200搭載の「AIスパコンクラウド」を提供開始 | 株式会社ハイレゾのプレスリリース」. https://prtimes.jp/main/html/rd/p/000000065.000058027.html, (参照 24-12-03).
  2. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。