公開:

日本テラデータが記者説明会で生成AI新機能BYO-LLMとGPU分析クラスタの提供を発表、Teradata Vantageでの活用が可能に

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • 日本テラデータが12月11日に記者説明会を開催
  • 翌12日のAI Innovation Day 2024 Tokyoに先立ち実施
  • 生成AIの新機能BYO-LLMの提供を発表

日本テラデータの記者説明会で新機能を発表

データ分析関連の製品やサービスを提供する米Teradataの日本法人である日本テラデータ株式会社は、2024年12月11日に記者説明会を開催した。同社の翌12日のイベント「AI Innovation Day 2024 Tokyo」に先立って、生成AIの新機能BYO-LLM(Bring-your-Own LLM)の提供開始とGPU分析クラスタによる推論、ファインチューニングの実行環境の提供を発表したのだ。[1]

TeradataのBYO-LLM機能は、ドメイン固有モデルをはじめとする小規模または中規模のオープンソースLLMをTeradata Vantageに取り込んで活用することを可能にしている。企業は独自に開発した生成AIモデルを本番運用に移行し、きわめて短期のうちにビジネス成果を獲得できるようになった。

GPU分析クラスタによるAIの推論とファインチューニング機能によって、膨大なデータを処理し高速に演算処理されるよう設計されたNVIDIAアクセラレーテッド・コンピューティングが利用可能となる。推論環境の提供はAWSですでに一般提供を開始しており、2025年上半期にはAzureGoogle Cloudでも提供を開始する予定だ。

Teradata新機能の提供状況まとめ

AWS Azure Google Cloud
BYO-LLM 一般提供中 2025年上半期予定 2025年上半期予定
推論機能 一般提供中 2025年上半期予定 2025年上半期予定
ファインチューニング 2025年上半期予定 未定 未定

BYO-LLMについて

BYO-LLMとは「Bring-your-Own LLM」の略称で、企業が独自に開発した生成AIモデルを容易に本番運用に移行するための機能のことを指す。主な特徴として、以下のような点が挙げられる。

  • ドメイン固有モデルなど小規模・中規模LLMの活用が可能
  • データ移動コストを最小限に抑えた高速処理を実現
  • セキュリティ、プライバシー、信頼性を最大限に確保

BYO-LLMは、Hugging Faceのような35万以上のモデルを持つオープンソースAIプロバイダーから適切なモデルを選択し活用することができる。Forrester社の調査によると、AI活用を推進している企業のリーダーの46パーセントが戦略的にオープンソースLLMを活用したいと回答している。

参考サイト

  1. ^ テラデータ. 「テラデータ、生成AIの新機能BYO-LLMの提供を開始し、フルスタックのNVIDIA AIプラットフォームで高速化」. https://www.teradata.jp/press-releases/2024/teradata-makes-real-world-genai-easier, (参照 24-12-13).
  2. NVIDIA. https://www.nvidia.com/ja-jp/
  3. Google. https://blog.google/intl/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧
「AI」に関するニュース
「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。