公開:

マクニカとneoAIがオンプレミスLLMソリューションで協業開始、国内企業の生成AI実用化を加速

text: XEXEQ編集部
(記事は執筆時の情報に基づいており、現在では異なる場合があります)


記事の要約

  • マクニカとneoAI、オンプレミスLLMソリューションで協業開始
  • AI環境構築とneoAIの技術を組み合わせDX推進へ
  • 国内企業向け生成AI実用化を包括的に支援

マクニカとneoAIのオンプレミスLLM協業開始

株式会社マクニカと株式会社neoAIは2025年3月7日、大規模言語モデル(LLM)をオンプレミスで利用可能にする生成AI活用ソリューションの提供における協業を開始すると発表した。両社の専門知識と技術を融合することで、国内企業のデジタルトランスフォーメーション加速と生成AI実用化を強力に推進していく体制が整ったのだ。[1]

マクニカはAI環境構築の専門知識を活かし最適なハードウェアと開発・展開を加速するソフトウェアを提供することで、LLMをベースとした環境構築を実施する方針を示した。一方でneoAIは、最新のLlama 3.1やGemini 2、独自開発の日本語LLMなど、最先端のローカルLLMを駆使してRAGを含めた生成AI環境をオンプレミスで提供していく。

両社の協業により、neoAIが提供する法人向け生成AIオールインワンパッケージ「neoAI Chat」の導入でスクラッチ開発と比較してコスト削減と導入期間の短縮を実現する。さらに企業固有のデータによる追加学習を行ったLLMの構築まで、幅広いサポートを展開していく予定である。

オンプレミスLLMソリューションの特徴まとめ

環境構築 技術提供 導入支援
主な役割 AI環境構築・運用 LLM技術開発 包括的サポート
提供企業 マクニカ neoAI 両社協働
主要機能 ハードウェア最適化 RAG技術実装 導入・運用支援

大規模言語モデル(LLM)について

大規模言語モデル(LLM)とは、膨大なテキストデータから学習した人工知能モデルのことを指しており、主な特徴として以下のような点が挙げられる。

  • 自然言語の理解と生成が可能な高度なAIシステム
  • 翻訳・要約・文章生成などの多様なタスクに対応
  • 企業固有のデータで追加学習による特化が可能

オンプレミスでLLMを実装する場合、GPUリソースの調達からインフラ構築、アプリケーション開発まで専門的な知見が必要となる。そのため、マクニカとneoAIの協業による包括的な支援体制は、多くの企業にとって生成AI実用化への重要な足がかりとなるだろう。

生成AI基盤構築の協業に関する考察

オンプレミスLLMの実装により、企業の機密データを扱う際のセキュリティ懸念が大幅に軽減される可能性が高まっている。特に設計データや顧客情報など機密性の高いデータを扱う製造業や金融機関にとって、クラウドに依存しない生成AI活用の選択肢が広がることは重要な意味を持つだろう。

今後の課題として、GPUリソースの安定的な確保や運用コストの最適化、さらには企業固有の業務に特化したモデルの精度向上などが挙げられる。これらの課題に対して、マクニカのインフラ構築ノウハウとneoAIの技術力を組み合わせることで、より実用的なソリューションの提供が期待できるだろう。

将来的には、業界特化型のLLMモデルの開発や、より柔軟なスケーリング機能の実装など、企業のニーズに応じた機能拡張が望まれる。両社の協業を通じて、日本企業における生成AI活用の裾野が確実に広がっていくことが期待される。

参考サイト

  1. ^ マクニカ. 「マクニカとneoAI、オンプレミスで動作する"ローカルLLM"を用いた生成AI基盤構築・導入支援にて協業開始 - AI事業 - マクニカ」. https://www.macnica.co.jp/public-relations/news/2025/147070/, (参照 25-03-11).

※上記コンテンツはAIで確認しておりますが、間違い等ある場合はコメントよりご連絡いただけますと幸いです。

「AI」に関するコラム一覧「AI」に関するニュース一覧
アーカイブ一覧
AIに関する人気タグ
AIに関するカテゴリ
ブログに戻る

コメントを残す

コメントは公開前に承認される必要があることにご注意ください。