公開:

PerplexityがDeepSeek-R1ベースの大規模言語モデルR1 1776を公開、検閲の制限なく正確な情報提供が可能に

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • PerplexityがR1 1776モデルをオープンソースで公開
  • DeepSeek-R1を基に後処理トレーニングを実施
  • 偏りのない正確な情報提供を実現する改良を実施

PerplexityがR1 1776モデルをオープンソースとして公開

米国のAI企業Perplexityは2024年2月18日、大規模言語モデル「R1 1776」をオープンソースとして公開したと発表した。このモデルは既存のDeepSeek-R1を基に開発され、偏りのない正確な情報提供を目指して後処理トレーニングが施されている。[1]

R1 1776の主な特徴として、中国共産党による検閲の影響を受けていたDeepSeek-R1の制限を解除し、センシティブなトピックに対しても適切な応答が可能になった。開発チームは約300の検閲対象トピックを特定し、多言語検閲分類器を用いて40,000件の多言語プロンプトデータセットを構築している。

後処理トレーニングはNvidia NeMo 2.0フレームワークを活用して実施され、学術的なベンチマークや内部品質評価においても高いパフォーマンスを維持している。R1 1776は、HuggingFaceリポジトリでモデルウェイトをダウンロードできるほか、Sonar APIを通じて利用することも可能だ。

R1 1776の主な特徴まとめ

基本情報 トレーニング詳細 利用方法
概要 DeepSeek-R1ベース 検閲対策トレーニング オープンソース提供
特徴 偏りのない情報提供 40,000件の多言語データ HuggingFace/Sonar API

大規模言語モデルについて

大規模言語モデルとは、膨大なテキストデータから学習し、人間のような自然言語処理能力を持つAIシステムのことを指す。主な特徴として、以下のような点が挙げられる。

  • 自然言語の理解と生成が可能な深層学習モデル
  • 大規模なデータセットを用いた事前学習により高度な言語処理を実現
  • 様々なタスクに適応可能な転移学習能力を保有

DeepSeek-R1は最先端の推論モデルと同等の性能を達成する大規模言語モデルとして知られている。センシティブなトピックへの応答制限という課題があったが、R1 1776の開発によって制限のない情報提供が可能になった。

R1 1776モデルに関する考察

R1 1776の公開は、オープンソースAIの発展において重要な意味を持っている。検閲の影響を受けない大規模言語モデルの登場により、研究者やデベロッパーがより自由に高性能なAIモデルを活用できるようになるため、AIの民主化が一層進むことが期待される。

今後の課題として、モデルの継続的な改善と品質管理が挙げられる。オープンソース化により多くの開発者が改良に参加できる一方で、モデルの一貫性や安全性を維持するための仕組みづくりが必要になるだろう。Perplexityには、コミュニティと協力しながらモデルの健全な発展を導くことが求められる。

将来的には、R1 1776の技術を活用した特定分野向けの派生モデルの開発も期待される。医療や法律など、専門知識が必要な領域での活用を視野に入れた展開が進めば、AIの実用性がさらに高まることだろう。

参考サイト

  1. ^ perplexity. 「Open-sourcing R1 1776」. https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776, (参照 25-02-21).

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。