メインコンテンツへジャンプ

検索拡張生成(RAG)

Databricks で RAG を使用して高品質な生成 AI デプロイメントを作成

Retrieval Augmented Generation

検索拡張生成(RAG)は、質問やタスクに関連するデータや文書を見つけ、それらを大規模言語モデル(LLM)がより正確な応答をコンテキストとして生成するための生成的 AI のアプリケーションパターンです。

Databricks には、データの準備、検索モデル、言語モデル(SaaS またはオープンソース)、ランキングおよび後処理パイプライン、プロンプトエンジニアリング、カスタムエンタープライズデータでのモデルのトレーニングなど、RAG プロセスのあらゆる側面を組み合わせて最適化するのに役立つ RAG ツールスイートがあります。

Retrieval Augmented Generation

オープンソースおよびプロプライエタリな SaaS モデルへのアクセス

Databricks を使用すると、あらゆる生成 AIモデルをデプロイ、監視、管理、クエリできます。LangChain、Llama 2、MPT、BGE などの主要モデルや、Azure OpenAI、Amazon Bedrock、Amazon SageMaker、Anthropic 上のモデルは全て、モデルサービングで管理および制御できます。RAG アプリケーションに最適な候補を見つけるための実験や本番運用への展開が簡単になります。

あらゆる種類のデータに対応する自動化されたリアルタイムパイプライン

Databricks は、オンライン検索のためのデータ提供とインデックス作成をネイティブにサポートします。非構造化データ(テキスト、画像、動画)の場合、Vector Search が自動的にインデックス化してデータを提供するため、個別のデータパイプラインを作成することなく、RAG アプリケーションからデータにアクセスすることができます。Vector Search は、障害の管理、再試行の処理、バッチサイズの最適化を行い、最高のパフォーマンス、スループット、コストを提供します。構造化データについては、Feature and Function Serving がユーザーやアカウントデータを含むコンテキストデータのクエリをミリ秒単位で提供します。これらのデータは、企業がプロンプトに注入し、ユーザー情報に基づいてカスタマイズすることがよくあります。

RAG アプリケーションを本番環境に迅速に移行

Databricks は、Databricks や他のモデルプロバイダによってファインチューニングまたは事前デプロイされた大規模言語モデルのデプロイ、管理、クエリ、監視を容易にします。Databricks のモデルサービングは、自動化されたコンテナ構築とインフラ管理を行い、保守コストを削減してデプロイを迅速化します。

組み込まれたガバナンス

Databricks にはセキュリティ、ガバナンス、監視が組み込まれています。RAG アプリケーションは、データとモデルに対するきめ細かなアクセス制御が可能です。レート制限を設定し、全てのモデルのリネージを追跡できます。これにより RAG アプリケーションは、アクセス権を持たないユーザーに機密データを公開することはありません。

本番運用での品質と安全の確保

顧客向けアプリケーションに要求される品質基準を満たすためには、AI の出力は正確で、最新で、企業のコンテキストを理解し、安全でなければなりません。Databricks は、LLM の自動評価によりモデルの品質を簡単に把握し、RAG チャットボットの回答の有用性、関連性、正確性を向上させます。Databricks のレイクハウスモニタリングは、アプリケーションの出力を自動的にスキャンし、有害、ハルシネーション(幻覚)、その他の安全でないコンテンツを検出します。このデータは、ダッシュボードやアラート、その他後工程のデータパイプラインに供給され、その後のアクションに活用されます。