公開:

KDDIが最先端GPUサーバー向けのAIデータセンター技術検証環境を渋谷に開設、高効率な冷却技術の確立へ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • KDDIがAIデータセンター技術の検証環境を渋谷に開設
  • 最先端GPUサーバー向けの電源・冷却技術を検証
  • パートナー企業との共同検証で技術確立を目指す

KDDIがAIデータセンター技術の検証環境を渋谷に新設

KDDI株式会社は2025年2月25日、最先端のGPUサーバーを想定した電源技術や冷却技術などのAIデータセンター技術の検証環境をKDDI Telehouse渋谷データセンター内に4月から開設すると発表した。堺AIデータセンターの2025年度中の本格稼働を見据えた取り組みとなっている。[1]

この検証環境は直接液冷方式に対応したサーバーとGPUを模擬した高発熱装置を組み合わせて構築され、最大電源容量300kVA、最大冷却能力300kWを備えている。NVIDIA GB200 NVL72を想定した検証が可能で、電源や温度などを計測する環境センサーや漏水センサーを設置し運用時のデータ収集や監視も可能となっている。

KDDIは本検証環境を通じて、データセンターの新しい冷却技術の確立や高効率な電源設備の開発・技術検証などをパートナー企業と共同で実施していく方針だ。Super Micro Computer、ニデック、篠原電機の3社が検証環境構築および検証に協力している。

AIデータセンター検証環境の詳細

項目 詳細
開設場所 KDDI Telehouse渋谷データセンター
開設時期 2025年4月
最大電源容量 300kVA
最大冷却能力 300kW
主な特徴 直接液冷方式対応、高発熱装置との組み合わせ
協力企業 Super Micro Computer、ニデック、篠原電機

直接液冷方式(DLC)について

直接液冷方式(DLC:Direct Liquid Cooling)とは、サーバー内に直接冷水を送り込む冷却技術のことを指す。主な特徴として、以下のような点が挙げられる。

  • 従来の空冷方式と比べて効率的な冷却が可能
  • 高性能GPUの発熱に対応可能な冷却能力
  • データセンター全体の省電力化に貢献

最先端のGPUサーバーでは半導体チップの高性能化・高集積化に伴い、ラックあたりの発熱量が従来型と比較して10倍以上上昇している。そのため高性能なGPUサーバーを効率的に運用するためには、直接液冷方式の導入が不可欠となっている。

AIデータセンター技術の検証環境に関する考察

AIデータセンター技術の検証環境の開設は、今後急増するGPUサーバーの需要に対応するための重要な一歩となる。特にNVIDIA GB200 NVL72のような高性能GPUの運用には大容量の電源設備と効率的な冷却システムが不可欠であり、早期に技術検証を行うことで実運用時の課題を事前に把握できるだろう。

一方で、直接液冷方式の導入には漏水リスクという新たな課題が存在している。そのため検証環境では漏水センサーと緊急遮断弁を設置しているが、商用環境での長期安定運用に向けては、より詳細な安全対策の確立が必要となるはずだ。

今後はAIの普及と利用拡大に伴い、高性能GPUを搭載したデータセンターの需要が一層高まることが予想される。KDDIには本検証環境での知見を活かし、より効率的で安全なAIデータセンターの実現に向けた技術開発を推進することが期待される。

参考サイト

  1. ^ KDDI. 「最先端GPUサーバーに対応したAIデータセンターの検証環境を渋谷に開設 | KDDI News Room」. https://newsroom.kddi.com/news/detail/kddi_nr-454_3731.html, (参照 25-02-27).
  2. NVIDIA. https://www.nvidia.com/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。