公開:

IBMとAMDが協業を発表、AMD Instinct MI300Xアクセラレータの導入でAIワークロードの処理効率が向上へ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • IBMとAMDが新たな協業を発表
  • AMD Instinct MI300Xアクセラレータを導入
  • 2025年上半期からIBM Cloudで提供開始

IBMとAMDのAIアクセラレーター協業で生成AIワークロードの実行を効率化

IBMとAMDは2024年11月18日に、IBM CloudのサービスとしてAMD Instinct MI300Xアクセラレータを導入するための協業を発表した。この協業によってIBM watsonx上でのAMD Instinct MI300Xアクセラレータのサポートが可能となり、生成AIモデルとHPCアプリケーションの処理能力が大幅に向上することになるだろう。[1]

AMD Instinct MI300Xアクセラレータは192GBの高帯域幅メモリー(HBM3)を搭載することで、大規模なモデル推論と微調整をサポートすることが可能になった。この大容量メモリーによって少ないGPUでの大規模モデル実行が実現され、推論コストの削減にもつながるはずだ。

IBM Cloudのセキュリティーおよびコンプライアンス機能を活用することで、規制の厳しい業界を含むさまざまな企業のAI活用を支援することが可能となった。IBM Cloudのインフラストラクチャー・リソースによってハイブリッドクラウド環境全体でAIワークロードを拡張できる体制が整備されるだろう。

AMD Instinct MI300Xアクセラレータの主な機能まとめ

項目 詳細
メモリー容量 192GB高帯域幅メモリー(HBM3)
主なサポート機能 大規模モデル推論、微調整(ファイン・チューニング)
提供開始時期 2025年上半期
実行環境 IBM Cloud Virtual Servers for VPC、IBM Cloud Kubernetes Service、IBM Red Hat OpenShift
活用プラットフォーム IBM watsonx、Red Hat Enterprise Linux AI、Red Hat OpenShift AI
詳細についてはこちら

高帯域幅メモリーについて

高帯域幅メモリーとは、プロセッサーとメモリー間の通信速度を高速化するために開発された次世代メモリー技術のことを指しており、主な特徴として以下のような点が挙げられる。

  • 従来のDDRメモリーと比較して大幅に広い帯域幅を実現
  • 3次元積層構造により高密度実装が可能
  • 低消費電力での高速データ転送を実現

AMD Instinct MI300Xアクセラレータに搭載されている高帯域幅メモリーHBM3は、大規模な生成AIモデルの推論処理に必要な大容量データを高速に処理することができる。この技術によって少ないGPUでの大規模モデル実行が可能となり、企業のAI活用における推論コストの削減に貢献することが期待される。

参考サイト

  1. ^ PR TIMES. 「IBM、AMDとのさらなる協業を発表。AIアクセラレーターの提供を拡大 | 日本アイ・ビー・エム株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000000575.000046783.html, (参照 24-11-22).
  2. IBM. https://www.ibm.com/jp-ja
  3. Red Hat. https://www.redhat.com/ja

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧
「AI」に関するニュース
「AI」に関するニュース一覧
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。