公開:

GoogleがTPU第6世代Trilliumを一般提供開始、AIモデルのトレーニング性能が4倍以上に向上

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • GoogleがTPU第6世代「Trillium」の一般提供を開始
  • トレーニング性能が4倍以上向上し、推論スループットが3倍に
  • 省エネ性能67%向上とHBM容量2倍の大幅な性能向上を実現

GoogleがTPU第6世代「Trillium」を発表、大幅な性能向上を実現

Googleは12月11日(現地時間)、第6世代TPU(Tensor Processing Unit)の「Trillium」をGoogle Cloudで一般提供開始することを発表した。TrilliumはGoogle I/Oで予告されていたTPUで、最新のAIモデル「Gemini 2.0」のトレーニングにも使用されている革新的なプロセッサだ。[1]

Trilliumは先代と比較してトレーニング性能が4倍以上、推論スループットが最大3倍に向上し、エネルギー効率も67%改善された。さらにチップあたりのピークコンピューティング性能は4.7倍、高帯域メモリ(HBM)容量とチップ間相互接続(ICI)帯域幅はともに2倍になっている。

また、Trillium搭載のAI Hypercomputerアーキテクチャも発表され、10万個以上のTrilliumチップと13ペタビット/秒の双方向帯域幅を持つJupiterネットワークファブリックの組み合わせにより、単一の分散トレーニングジョブを数十万のアクセラレータにスケーリング可能になった。

Trilliumの主な性能向上

性能項目 向上率
トレーニング性能 4倍以上
推論スループット 最大3倍
エネルギー効率 67%向上
ピークコンピューティング性能 4.7倍
HBM容量とICI帯域幅 2倍

TPUについて

TPUとはTensor Processing Unitの略で、Googleが独自に開発したAI処理に特化した特定用途向け集積回路(ASIC)のことを指す。主な特徴として以下のような点が挙げられる。

  • AIモデルのトレーニングと推論に最適化された設計
  • 高速な並列処理と優れた電力効率を実現
  • 大規模な機械学習ワークロードを効率的に処理

TPUはGoogleが2015年から開発を進めており、世代を重ねるごとに性能が向上している。第6世代のTrilliumは、先代と比較して大幅な性能向上を実現し、最新のAIモデル「Gemini 2.0」のトレーニングにも採用された実績を持つ。

Trilliumに関する考察

Trilliumの性能向上は、大規模なAIモデルの開発と運用に大きな影響を与えるだろう。特にトレーニング性能が4倍以上向上したことで、より複雑なAIモデルの開発が可能になり、AIの応用範囲がさらに広がることが期待される。

一方で、10万個以上のTrilliumチップを必要とする大規模な運用には、相応の投資とインフラ整備が必要になる。この課題に対しては、クラウドサービスを通じた柔軟な利用形態の提供や、より効率的なリソース管理システムの開発が求められるだろう。

今後はTrilliumの性能を最大限に活用できるソフトウェアエコシステムの整備が重要になる。特にXLAコンパイラやJAX、PyTorch、TensorFlowなどのフレームワークの最適化が進めば、より多くの開発者がTrilliumの恩恵を受けられるようになるはずだ。

参考サイト

  1. ^ Google Cloud. 「Trillium TPU is GA | Google Cloud Blog」. https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga, (参照 24-12-13).
  2. Google. https://blog.google/intl/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧
「AI」に関するニュース
「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。