公開:

ABEJAがGENIACプロジェクトで32B小型化モデルを開発、GPT-4を上回る性能でAI基盤の強化へ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

ABEJAがGENIACプロジェクトで32B小型化モデルを開発、GPT-4を上回る性能でAI基盤の強化へ

PR TIMES より


記事の要約

  • ABEJAが32Bの小型化モデルを開発しGPT-4を上回る性能を達成
  • NEDOプロジェクトGENIACの下で開発された高性能LLM
  • Hugging Faceでモデルを一般公開へ

ABEJAが開発した32B小型化モデルがGPT-4を上回る性能を実現

株式会社ABEJAは経済産業省が立ち上げたGENIACの下、NEDOプロジェクトにおいて32Bの小型化モデルを2025年1月27日に開発した。開発されたモデルはファインチューニング実行前の段階でありながら、複数の汎用言語性能指標においてOpenAI社のGPT-4を上回る性能に到達している。[1]

ABEJAはLLMの社会実装における最大の課題が精度とコストのトレードオフにあると考え、高い精度と高い計算コストパフォーマンスの両立を目指した研究開発を進めてきた。第一期では周辺領域の技術開発を実施し、第二期では50B以下および10B以下の2つの小型化モデルの構築を推進している。

このたび構築された32Bモデルは、mtbenchやelyza-tasksなど複数の汎用的言語性能指標でGPT-4を上回る性能を達成した。ABEJAは今後、本モデルをビジネスプロセスに実装する際には領域特化型のファインチューニングによってさらなる精度向上が実現できると考えている。

32B小型化モデルの特徴まとめ

項目 詳細
モデルサイズ 32B
開発状況 ファインチューニング実行前
性能評価 GPT-4を上回る
評価指標 mtbench、elyza-tasks他
公開場所 Hugging Face
モデルの詳細はこちら

LLMについて

LLMとは「Large Language Model」の略称で、大規模な言語モデルを指す人工知能技術である。主な特徴として以下のような点が挙げられる。

  • 大量のテキストデータで学習された高度な自然言語処理能力
  • 文章生成や質問応答など多様なタスクに対応
  • 継続的な学習によって性能が向上

ABEJAが開発した32Bモデルは、従来のLLMが抱えていた精度とコストのトレードオフという課題に対して、小型化モデルでありながら高い性能を実現している。このモデルはファインチューニング前の段階で既にGPT-4を上回る性能を示しており、今後の日本のAI技術発展に大きく貢献する可能性を持っている。

32B小型化モデルの開発に関する考察

ABEJAの32B小型化モデルの開発は、日本のAI技術の競争力強化という観点で重要な一歩となっている。特に従来のLLMが抱えていた精度とコストのトレードオフという課題に対して、小型化モデルでありながらGPT-4を上回る性能を実現したことは、実用化に向けた大きな前進と言えるだろう。

今後の課題として、ビジネスプロセスへの実装における具体的なユースケースの開発や、領域特化型のファインチューニングによる性能向上の実現が挙げられる。特に10B以下のモデル開発においては、実運用可能な性能と運用コストの両立が重要な鍵となるだろう。

今後は提案書の作成や論理推論、情報抽出などの特定タスクにおける実用化が期待される。NEDOプロジェクトの成果として得られた知見やノウハウを社会に還元することで、日本のAI技術の発展と産業構造の変革が加速することが望まれる。

参考サイト

  1. ^ PR TIMES. 「経済産業省が立ち上げた「GENIAC」の元、NEDOプロジェクトでABEJAがLLMを利活用し開発した小型化モデルが複数の汎用言語性能指標で「GPT-4」を上回る性能に到達 | 株式会社ABEJAのプレスリリース」. https://prtimes.jp/main/html/rd/p/000000172.000010628.html, (参照 25-01-29).
  2. 経済産業省. https://www.meti.go.jp/index.html

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。