公開:

オルツがLHTM-OPT2を発表、日本語RAGで世界最高精度を達成し国内AIの新時代を切り開く

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

オルツがLHTM-OPT2を発表、日本語RAGで世界最高精度を達成し国内AIの新時代を切り開く

PR TIMES より


記事の要約

  • オルツがLHTM-OPT2をリリース、日本語RAGで世界最高精度を達成
  • Wiki RAGデータセットでGPT-4oと同等の91.0%の精度を実現
  • 日本語推論速度で最大796TPSを記録し国内トップに

LHTM-OPT2による日本語RAG精度の向上

株式会社オルツは軽量大規模言語モデルLHTM-OPTシリーズの最新バージョンLHTM-OPT2を2024年10月29日にリリースした。LHTM-OPT2は日本語RAG精度において軽量型LLMで世界最高精度を達成し、Wikipediaデータからの質問・回答データセットと東京大学入学試験の国語科目データセットを用いた評価で高い性能を示している。[1]

Wiki RAGデータセットによる評価ではLHTM-OPT2がGPT-4oと同等レベルの91.0%の精度を達成し、東大入試国語科目におけるRAG評価でもGPT-4oの94%の精度を実現した。JGLUEベンチマークやJapanese MT-Benchでも軽量型LLMとして最高スコアを記録している。

推論速度においてもSambaNova社との協力により平均速度500TPS、最大速度796TPSという日本語LLM推論速度の最高記録を達成した。オルツは今後もLHTM-OPTシリーズの開発を通じて高精度で効率的な言語モデルの開発を進めていく。

LHTM-OPT2の性能評価まとめ

評価項目 詳細
Wiki RAG精度 91.0%(GPT-4oと同等レベル)
東大入試RAG精度 GPT-4oの94%の精度を達成
平均推論速度 500TPS(トークン/秒)
最大推論速度 796TPS(国内最速記録)
対応データセット Wikipedia RAG、東大入試国語、JGLUE、Japanese MT-Bench
LHTM-OPT2の詳細はこちら

RAGについて

RAGとは検索拡張生成(Retrieval-Augmented Generation)の略称で、大規模言語モデルの生成能力を外部知識で補完する技術のことを指す。主な特徴として以下のような点が挙げられる。

  • 外部データベースから関連情報を検索して回答を生成
  • 最新の情報を活用した高精度な応答が可能
  • ハルシネーション(誤った情報の生成)を軽減

LHTM-OPT2はWiki RAGデータセットを活用することで、従来の軽量型LLMでは難しかった高精度なRAG処理を実現している。特にWikipediaの文章からの質問生成や回答生成において優れた性能を発揮し、大規模モデルと同等レベルの精度を達成した。

LHTM-OPT2に関する考察

LHTM-OPT2が軽量型LLMでありながらGPT-4oと同等レベルの精度を達成したことは、日本語処理における技術革新として極めて重要な意味を持つ。特に推論速度の向上は実用面での大きな利点となり、多くの企業がAIシステムを導入する際の障壁を下げることにつながるだろう。

今後の課題として、モデルの軽量化とパフォーマンスのバランスをどのように取るかという点が挙げられる。RAGの精度をさらに向上させつつ、リアルタイム性を保持することは容易ではないが、データセットの最適化や推論エンジンの改良により解決できる可能性がある。

また、産業界での実用化に向けては、特定ドメインでの精度向上やカスタマイズ性の強化が重要となるだろう。オルツには日本語処理の最先端企業として、より多くの分野でLHTM-OPT2の活用事例を創出し、日本のAI技術の発展を牽引することが期待される。

参考サイト

  1. ^ PR TIMES. 「オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現 | 株式会社オルツのプレスリリース」. https://prtimes.jp/main/html/rd/p/000000113.000111359.html, (参照 24-10-30).

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。