公開:

Stability AIがAMDハードウェア向けにStable Diffusionを最適化、推論速度が最大3.8倍に向上

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • Stability AIとAMDがStable Diffusionの最適化で提携
  • AMDのGPUとAPUで約3倍の推論速度を実現
  • メモリ使用量を大幅に削減し効率性を向上

Stability AIとAMDによるStable Diffusionの最適化

英Stability AIは2025年4月16日、画像生成AI「Stable Diffusion」をAMDの「RadeonGPUおよび「Ryzen AI」APU向けに最適化したことを発表した。AMDとの共同エンジニアリングによってONNX形式に最適化されたモデルが開発され、基本のPyTorchモデルと比較して最大3.8倍の推論速度を実現している。[1]

最適化の対象となったモデルは、Stable Diffusion 3.5 LargeとStable Diffusion 3.5 Large Turbo、Stable Diffusion XL 1.0、Stable Diffusion XL Turboの4種類となっている。これらのモデルはONNX Runtime対応環境であれば即座に導入可能で、既存のワークフローにシームレスに統合できるようになった。

最適化されたモデルはHugging Faceで公開され、モデル名の末尾に「_amdgpu」が付与されている。エンドユーザーはAmuse 3.0を使用して最適化されたモデルを試すことができ、出力品質を損なうことなく高速な画像生成が可能になっている。

Stable Diffusionの最適化モデルまとめ

SD3.5シリーズ SDXLシリーズ
対象モデル SD3.5 Large、SD3.5 Large Turbo SDXL 1.0、SDXL Turbo
性能向上 最大2.6倍の推論速度向上 最大3.8倍の推論速度向上
提供形式 ONNX最適化モデル ONNX最適化モデル

ONNXについて

ONNXとは、Open Neural Network Exchangeの略称で、機械学習モデルの相互運用性を実現するためのオープンフォーマット規格である。以下のような特徴が挙げられる。

  • 異なるフレームワーク間でのモデル変換を可能にする標準化された形式
  • ハードウェアに最適化された推論の実現
  • 幅広いプラットフォームでの展開を容易にする共通インターフェース

Stable DiffusionのONNX最適化により、AMDのハードウェアで効率的な推論処理が可能になっている。PyTorchモデルからONNX形式への変換によって、モデルの出力品質を維持しながら大幅な性能向上とメモリ使用量の削減を実現している。

Stable DiffusionのAMD最適化に関する考察

AMDのハードウェアに最適化されたStable Diffusionの提供は、AIモデルの民主化とハードウェアの多様性確保という観点で重要な意味を持っている。高速な推論処理とメモリ使用量の削減は、より多くのユーザーがAI画像生成を活用できる環境を整備することにつながるだろう。

今後の課題として、異なるハードウェアプラットフォーム間での性能差や互換性の問題が考えられる。この課題に対しては、ONNXのような標準規格の活用とハードウェアベンダーとの継続的な協力が解決策として重要になってくるはずだ。

将来的には、より多くのAIモデルがハードウェアに最適化されることで、エッジデバイスでのAI処理が一般化すると予想される。AMDとStability AIの協力関係は、このトレンドを加速させる重要な一歩となる可能性が高い。

参考サイト

  1. ^ stability.ai. 「Stable Diffusion Now Optimized for AMD Radeon™ GPUs and Ryzen™ AI APUs — Stability AI」. https://stability.ai/news/stable-diffusion-now-optimized-for-amd-radeon-gpus, (参照 25-04-18).
  2. 2762

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。