公開:

楽天が日本語大規模言語モデルRakuten AI 2.0を公開、高性能な言語処理と商業利用の促進へ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • 楽天が日本語大規模言語モデルRakuten AI 2.0を公開
  • 小規模言語モデルRakuten AI 2.0 miniも同時提供開始
  • インストラクションチューニング済モデルも提供

楽天の日本語言語モデルRakuten AI 2.0とRakuten AI 2.0 miniの提供開始

楽天グループ株式会社は、日本語に最適化された大規模言語モデルRakuten AI 2.0と小規模言語モデルRakuten AI 2.0 miniを2025年2月12日に提供開始した。両モデルはMixture of Expertsアーキテクチャを採用しており、基盤モデルとインストラクションチューニング済モデルが提供されている。[1]

Rakuten AI 2.0の基盤モデルのファインチューニングでは、最新の研究成果であるSimPOを活用してアライメントの最適化を実施している。従来のRLHFやDPOと比較して、シンプルで安定的かつ効率的な特徴を持ち、人間の嗜好に合わせた調整が可能になっている。

日本語版MT-Benchを用いた評価では、Rakuten AI 2.0インストラクションチューニング済モデルが同程度のパラメータ数を持つモデルと比較して最高水準の性能を発揮した。コンテンツ要約や質問回答など様々なテキスト生成タスクで商業利用が可能になっている。

Rakuten AI 2.0の性能比較まとめ

項目 詳細
モデル構成 8x7BのMoEモデル(8つの70億パラメータサブモデル)
最適化手法 SimPOによるアライメント最適化
提供形態 基盤モデルとインストラクションチューニング済モデル
ライセンス Apache 2.0ライセンス
利用可能タスク コンテンツ要約、質問回答、テキスト理解、対話システム構築
Hugging Faceリポジトリの詳細はこちら

Mixture of Expertsについて

Mixture of Expertsとは、複数のサブモデル(エキスパート)に分割されたAIモデルのアーキテクチャのことを指しており、主な特徴として以下のような点が挙げられる。

  • 複数のサブモデルによる効率的な処理
  • 入力に応じた最適なエキスパートの選択
  • 推論時の計算リソースの効率的な活用

推論および学習中は、入力に対して最も適したエキスパートのサブセットのみがアクティブ化され処理を行うことで、効率的な計算が可能になっている。Rakuten AI 2.0では8つの70億パラメータサブモデルで構成されており、高品質な日本語と英語の言語データを用いて継続的な学習が行われている。

参考サイト

  1. ^ 楽天グループ株式会社. 「楽天、日本語に最適化した大規模言語モデルと楽天初の小規模言語モデルを提供開始 | 楽天グループ株式会社」. https://corp.rakuten.co.jp/news/press/2025/0212_02.html, (参照 25-02-14).

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。