翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
グラウンディングと取得の拡張生成
AI システムをエンタープライズ本番環境にデプロイするには、信頼、正確性、説明可能性が不可欠です。基盤モデル (FMs優れた一般機能を提供します。ただし、大規模なパブリックコーポラでトレーニングされており、多くの場合、専有データ、ビジネスルール、最近の変更を認識していません。
これらの認識ギャップに対応するため、 は Amazon Bedrock ナレッジベースを通じて検索拡張生成 (RAG) AWS を有効にします。RAG は、FM レスポンスを外部のドメイン固有の知識に基づいて構築する強力なアーキテクチャパターンであり、事実の正確性とコンテキストの関連性の両方を提供します。
RAG は、次の 2 つのプロセスを組み合わせることで、大規模言語モデル (LLM) の出力を強化します。
-
取得 – セマンティック検索メカニズム (通常はベクトル埋め込みを使用) を使用して、キュレートされたナレッジソース (内部ドキュメント、製品マニュアル、ケースログなど) から関連するコンテンツを特定します。
-
Generate – 取得したコンテキストを LLM へのプロンプトの一部として提供し、その信頼できる情報に基づいて回答を作成できるようにします。
このアプローチにより、「クローズドブック」基盤モデルは、再トレーニングすることなく、厳選されたライブエンタープライズデータにアクセスできるかのように動作できます。
たとえば、ある従業員が内部 AI アシスタントに「当社の旅行ポリシーは何ですか?」と尋ねるとします。アシスタントの回答は、Amazon Simple Storage Service (Amazon S3) でホストされている人事 (HR) ドキュメントを使用して作成されます。モデルを微調整する必要はありません。
Amazon Bedrock でのグラウンディング
Amazon Bedrock はナレッジベース機能によるグラウンディングをサポートしているため、開発者はインフラストラクチャを管理せずにエンタープライズコンテンツリポジトリを設定して基盤モデルにリンクできます。
Amazon Bedrock のグラウンディングの主な機能は次のとおりです。
-
サポートされている FM プロバイダーを使用したドキュメントの自動埋め込み
-
Amazon S3 に保存されている PDFs、HTML、Word ドキュメント、またはテキストファイルにわたるセマンティック検索
-
コンテンツが LLM のコンテキストウィンドウに挿入されるため、微調整なしでのグラウンディング
-
Amazon Bedrock エージェントと連携して、複雑な推論や複数ステップのツールの使用を実行します。
Amazon Bedrock ナレッジベースでサポートされているグラウンディングのソースは次のとおりです。
-
Amazon S3 (ネイティブサポート)Confluence、、Salesforce、SharePoint、またはウェブクローラー (プレビュー)
-
Amazon Aurora、Amazon OpenSearch Serverless、Amazon Neptune Analytics、MongoDB、Pinecone、RedisEnterprise Cloud などのベクトルストアを使用して、事前に埋め込まれたインデックス。
Amazon Bedrock でのグラウンディングのモデルサポートには以下が含まれます。
-
Amazon Bedrock と互換性のあるすべての LLMs は、グラウンディングをサポートしています。
-
Amazon Nova モデルは、ハイブリッド取り出し手法を使用して、テキスト、画像、ビデオを横断してグラウンディングするように最適化されています。
-
グラウンド出力は、推論と意思決定のために Amazon Bedrock エージェントによってさらにオーケストレーションできます。
エージェント AI との統合
RAG は、コンテキストインテリジェンスとポリシー認識で動作できるようにすることで、Amazon Bedrock エージェントと特にうまく連携します。エージェントワークフローの例を次に示します。
-
ユーザー入力は Amazon EventBridge に送信され、Amazon Bedrock エージェントに送信されます。
-
エージェントはナレッジベースを呼び出して内部ドキュメントを検索します。
-
取得したコンテキストは LLM プロンプトに埋め込まれます。
-
LLM は、参照とトレーサビリティを備えたグラウンディング出力を生成します。
-
(オプション) エージェントは、今後のアクションのために出力とサポート証拠をメモリに保存します。
このワークフローにより、エージェントは根拠のあるコンテキストに基づいて推論し、説明可能な意思決定を行い、汎用インテリジェンスとドメイン固有のアプリケーション間のギャップを埋めることができます。
安全性とコンプライアンスのためのガードレールの追加
グラウンディングは精度を向上させますが、本番稼働用 AI では、モデルが言えることやできないことを明確に制御する必要があります。Amazon Bedrock ガードレール機能は、エージェントの動作を制限し、エンタープライズポリシーを適用します。
ガードレールの機能は次のとおりです。
-
コンテンツフィルター – 個人を特定できる情報のマスキングなど、安全基準やコンプライアンス基準に違反する出力を防止します。
-
拒否トピック – 特定のカテゴリの応答をブロックします (例えば、医療アドバイスなし)。
-
プロンプト検査 – 推論の前に機密入力を特定して取り除きます。
-
ユーザーレベルのアクセスコントロール – AWS Identity and Access Management (IAM) を使用して、アイデンティティとロールに基づいてレスポンスを調整します。
-
セッションコンテキストの制約 — エージェントを特定のタスクにスコープすることで、モデルドリフトを防止します。
ガードレールを使用すると、組織はトーン、動作、境界を制御しながら、推論と意思決定を安全にエージェントに委任できます。
RAG に加えて自動推論
グラウンディングされたコンテンツでは不十分です。エージェントは、そのコンテンツについて理由を説明する必要があります。ここで、LLM ベースの自動推論が重要になります。自動推論は、エージェントが直接的な人間の介入なしに、結論の導き出し、意思決定、問題の解決など、論理的に推論できるようにすることに焦点を当てています。
自動推論により、以下が可能になります。
-
合成 – 取得した複数のドキュメントを比較、比較、または要約します。
-
マルチホップロジック – ドキュメントまたはセクション間で事実を接続して結論を導き出します。
-
意思決定 – ルールまたは設定に基づいて、競合するデータを選択します。
-
証拠ベースのレスポンス – すべての決定の引用と根拠を出力します。
これらの機能は、根拠のあるレスポンスを合理的な回答に変換し、Amazon Bedrock エージェントを取り出しツールからドメイン対応アドバイザーに変換します。
プロンプト連鎖、リフレクション評価ループ、マルチエージェントオーケストレーションなどのツールを使用すると、エージェント AI システムは診断、トリアージ、計画、リスク分析などの専門的な推論パターンをシミュレートできます。
Amazon Nova モデルとグラウンド生成
Amazon Nova Pro と Amazon Nova Premier では、グラウンディングされた RAG ワークフローがマルチモーダル入力にまで拡張されるため、エージェントは次のソース全体で と を解釈できます。
-
注釈付きドキュメントと PDF ファイル
-
図、グラフ、埋め込みイメージ
-
スクリーンショット、フォーム、構造化データの視覚化
-
ビデオトランスクリプトとスライドデッキ
この機能により、Amazon Nova は、法的なケースワーク、保険評価、臨床記録、規制申請など、豊富なメディアコンテンツを深く理解する必要がある業界に特に適しています。
RAG のセキュリティとガバナンス
Grounding エンタープライズモデルは、RAG、ナレッジベース、ファインチューニングなどの新しい責任を導入します。独自のデータとコンテキストを基盤モデルに挿入します。これにより、モデルの選択やプロンプトの作成だけでなく、新しい責任も導入されます。 では、以下のコントロール AWS を推奨しています。これは、ガードレールと連携して、信頼性の高いエンタープライズデプロイをサポートします。
-
ソースデータの品質保証 - Grounded レスポンスは、それらが基づいているドキュメント、データベース、または APIs と同等に信頼性があります。
-
データ分類とトレーサビリティ – コンテンツソースを分類してタグ付けし、グラウンドレスポンスの発信元を示します。
-
アクセスコントロール – プライベートドキュメントをプロンプトに挿入すると、セキュリティとプライバシーのリスクが高まります。IAM を通じて特定のドキュメントまたは埋め込みへのアクセスを制限します。
-
更新とドリフト管理 — 基盤知識はビジネスとともに進化する必要があります。モデル出力のドリフトや古い情報を防ぐために、バージョニング、鮮度ポリシー、自動インデックス再作成が必要です。
-
埋め込みインテリジェンスのガバナンス – AI を使用して組織の知識をデプロイしています。この機能には、特に医療や財務などの規制された分野で、表現方法を検証、監視、管理する義務が伴います。
-
迅速なオブザーバビリティ – Grounded システムは、IP の権利、規制要件、および企業の免責事項を尊重する必要があります。コンプライアンスのために、プロンプト、コンテキスト、レスポンスチェーンをすべてキャプチャします。
-
監査ログ記録 – および構造化された CloudWatch ログを使用して取得 AWS CloudTrail と推論を追跡します。
-
ユーザーのフィードバックと修正ループ – 企業は、ユーザーが誤った根拠、誤った回答、または無関係なソースにフラグを付け、そのフィードバックをルーティングして将来の関連性を向上させることを可能にします。
-
メモリ制御 – セッションに対して推測されたインサイトを保持するかどうかを選択します。
-
トークン予算の最適化 – グラウンディングが大量のテキストを追加すると、トークンの使用量 (およびコスト) が増加します。多くの場合、チャンキング、要約、メタデータフィルタリングを通じて、RAG の精度とプロンプト経済のバランスを取る必要があります。
グラウンディングと RAG の概要
RAG は、安全でスケーラブルなエンタープライズ AI の基盤となる戦略です。信頼できる内部知識に基づいて基盤モデルを構築することで、RAG は大規模言語モデルを汎用ジェネレーターからドメイン対応、ポリシー対応、説明可能な AI アシスタントに変換します。このアプローチにより、幻覚が軽減され、内部ポリシーへの準拠が強制され、事実ベースのコンテキストに応じた対応が可能になり、生成 AI は顧客向けアプリケーションと従業員向けアプリケーションの両方に適しています。
自動推論やガードレールと組み合わせると、グラウンディングモデルは単なるツールではなく、説明責任のある信頼できるエージェントになります。Amazon Bedrock サーバーレス RAG サポートと Amazon Nova マルチモーダル機能により、組織はインフラストラクチャを管理することなく、安全で高性能な AI をビジネス全体にスケールできます。