公開:

カラクリが日本語特化型生成AIガードレール「KARAKURI Guardrails」のβ版を提供開始、安全なAI活用基盤の実現へ

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)

カラクリが日本語特化型生成AIガードレール「KARAKURI Guardrails」のβ版を提供開始、安全なAI活用基盤の実現へ

PR TIMES より


記事の要約

  • カラクリ、日本語特化型生成AIガードレールのβ版を提供開始
  • 日本固有の文化・言語特性に対応したAI活用基盤を実現
  • AWS re:Invent 2024でソニーが製品を紹介

カラクリ、生成AIガードレール「KARAKURI Guardrails」のβ版提供開始

カラクリ株式会社は日本語に特化した生成AIのガードレール「KARAKURI Guardrails」のβ版を2024年12月25日に提供開始した。このガードレールはグローバル基準では対応できていない日本語特有の曖昧表現や敬語、文脈依存性などに対応することで、誤った判断や予期せぬリスクを軽減することが可能になっている。[1]

カラクリはカスタマーサポートDXを推進する企業として国産オープンモデルで最高性能を獲得した大規模言語モデル「KARAKURI LM」のノウハウを活用し、日本独自の言語・文化的要件に応えるAIセキュリティ基準を確立することを目指している。高島屋やSBI証券、セブン-イレブン・ジャパン、星野リゾートなど各業界のトップ企業に選ばれ続けているのだ。

さらにKARAKURI Guardrailsは既存のテック各社が提供するガードレール機能に加え、企業固有の要件やポリシーに合わせたカスタマイズが可能になっている。2024年12月2日から6日にかけて開催されたAWS re:Invent 2024では、ソニー株式会社が日本の優れたモデルとしてKARAKURI LMとKARAKURI Guardrailsを紹介したのだった。

KARAKURI Guardrailsの主な機能まとめ

機能 詳細
ハルシネーションリスクの検知 AIが生成する事実と異なる情報や根拠のない内容を検出し、信頼性の高い情報源と照合して不確実な情報や矛盾する内容を特定
文脈逸脱の検知 会話やクエリの文脈を理解し、設定された主題や目的から逸脱した応答を識別して効率的なコミュニケーションを支援
攻撃的行為の検知 悪意のある入力や潜在的な攻撃パターンを識別し、不適切な言葉遣いやシステムの脆弱性を突こうとする試みを検出
個人情報の検知 氏名、住所、電話番号、クレジットカード情報などの機密データを検出し、必要に応じてマスキングまたは削除
禁止ワード・トピックの検出 組織のポリシーや法的基準に基づく禁止用語・トピックを検出し、コンプライアンス対応と適切なコンテンツ管理をサポート
カラクリの公式サイトはこちら

生成AIのガードレールについて

生成AIのガードレールとは、生成AIアプリケーションにおけるユーザーとのインタラクションを監視・制御するための安全管理システムのことを指しており、主な特徴として以下のような点が挙げられる。

  • 有害コンテンツの検出と制限による安全性の確保
  • プライバシー保護とコンプライアンスチェック機能の提供
  • 企業固有の要件に合わせたカスタマイズ可能な制御機能

生成AIのガードレールはOpenAI社のChatGPTにおける初期ガードレール対策の導入が重要な契機となっている。2022年11月にOpenAIが有害、不適切、または危険な可能性のあるコンテンツを制限する初期のガードレール機能を実装したことで、生成AIの倫理的使用に関する業界標準が確立されるきっかけとなったのだった。

参考サイト

  1. ^ PR TIMES. 「カラクリ、日本語に特化した生成AIガードレール「KARAKURI Guardrails」β版の提供開始 | カラクリ株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000000105.000025663.html, (参照 24-12-26).

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。