公開:

TeradataがBYO-LLM機能とNVIDIA AIプラットフォーム統合を発表、生成AI活用の効率化とセキュリティ強化を実現

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • TeradataがBYO-LLM機能の提供を開始
  • NVIDIA AIプラットフォームとの統合で推論を高速化
  • オープンソースLLMの活用でコスト効率を向上

TeradataのBYO-LLMとNVIDIA AIプラットフォームの統合による生成AI基盤の強化

Teradataは2024年12月12日、ハイブリッドクラウド・データ分析プラットフォームTeradata VantageのClearScape Analytics機能に、新機能BYO-LLMおよびGPU分析クラスタによる推論とファインチューニングの実行環境の提供を開始した。独自開発の生成AIモデルを本番環境へ容易に移行できる体制が整い、短期間でのビジネス価値創出が実現可能となっている。[1]

TeradataはLLMの規模と複雑さに応じてGPUとCPUを戦略的に選択できる柔軟性を備え、推論やモデルのファインチューニングを効率的に実行することが可能だ。NVIDIA AIフルスタック・アクセラレーテッド・コンピューティング・プラットフォームとの統合により、AIワークロードの高速化を実現している。

BYO-LLMによってオープンソースLLMをTeradata Vantageに取り込むことが可能となり、データ移動コストを最小限に抑えながら、高いセキュリティとプライバシー、信頼性を確保することができる。規制コンプライアンスや医療診断書の分析など、幅広い業務領域での活用が期待されている。

Teradata生成AI機能の提供状況まとめ

AWS Azure Google Cloud
BYO-LLM 一般提供中 2025年上半期予定 2025年上半期予定
推論機能 一般提供中 提供予定 提供予定
ファインチューニング 2025年上半期予定 提供予定 提供予定
TeradataのBYO-LLMの詳細はこちら

BYO-LLMについて

BYO-LLMとはBring-your-Own LLMの略称で、企業が独自に開発した生成AIモデルを既存のプラットフォームに統合するための機能のことを指す。主な特徴として、以下のような点が挙げられる。

  • オープンソースLLMの柔軟な活用が可能
  • データ移動コストの最小化を実現
  • セキュリティとプライバシーの確保を両立

TeradataのBYO-LLM機能は、従来の超大規模LLMだけでなく、中小規模のオープンソースLLMも活用できる柔軟性を持つことが特徴だ。Forrester社の調査によると、AI活用を推進している企業のリーダーの46パーセントがオープンソースLLMの戦略的活用を望んでおり、BYO-LLMはこのようなニーズに応える機能となっている。

参考サイト

  1. ^ PR TIMES. 「テラデータ、生成AIの新機能BYO-LLMの提供を開始し、フルスタックのNVIDIA AIプラットフォームで高速化 | 日本テラデータ株式会社のプレスリリース」. https://prtimes.jp/main/html/rd/p/000000207.000018629.html, (参照 24-12-13).
  2. NVIDIA. https://www.nvidia.com/ja-jp/
  3. Google. https://blog.google/intl/ja-jp/

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧
「AI」に関するニュース
「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。