--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [RAG とは何ですか? - 検索拡張生成 AI の説明 - AWS](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/)【Amazon Web Services, Inc.】(2026年02月16日) --- > [!NOTE] この記事の要約(箇条書き) - 検索拡張生成 (RAG) は、大規模言語モデル (LLM) がトレーニングデータ以外の信頼できる知識ベースを参照し、出力を最適化するプロセスです。 - LLMの誤情報提示、情報陳腐化、信頼できない情報源からの応答、用語の混同といった課題を解決するために重要です。 - 主な利点として、コスト効率の高い実装、最新情報の利用、ユーザー信頼の向上、開発者による制御強化が挙げられます。 - RAGの仕組みは、外部データの作成、関連情報の取得、LLMプロンプトの拡張、外部データの更新というステップで構成されます。 - セマンティック検索は、大規模な知識ベースからより正確な情報を取得することで、RAGの結果を強化します。 - AWSは、Amazon Bedrock、Amazon Kendra、Amazon SageMaker JumpStartを通じてRAGの実装をサポートしています。 > [!NOTE] 要約おわり --- [検索拡張世代とは何ですか?](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/#ams#what-isc1#pattern-data)[検索拡張生成が重要なのはなぜです?](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/#ams#what-isc2#pattern-data)[検索拡張生成にはどのような利点がありますか?](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/#ams#what-isc3#pattern-data)[検索拡張生成はどのように機能しますか?](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/#ams#what-isc4#pattern-data)[検索拡張生成とセマンティック検索の違いは何ですか?](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/#ams#what-isc5#pattern-data)[AWS はお客様の検索拡張生成の要件をどのようにサポートできますか?](https://aws.amazon.com/jp/what-is/retrieval-augmented-generation/#ams#what-isc6#pattern-data) ## 検索拡張生成にはどのような利点がありますか? RAG 技術は、組織の [生成 AI](https://aws.amazon.com/jp/what-is/generative-ai/) の取り組みにいくつかの利点をもたらします。 ### コスト効率の高い実装 チャットボットの開発は通常、 [基盤モデル](https://aws.amazon.com/jp/what-is/foundation-models/) を使用して開始します。基盤モデル (FM) は、一般化されたデータやラベル付けされていないデータに基づいて広範囲にトレーニングされた API アクセス可能な LLM モデルです。組織またはドメイン固有の情報を得るために FM を再トレーニングするには、計算コストと財務コストが高くなります。RAG は、LLM に新しいデータを導入するための、よりコスト効率の高いアプローチです。これにより、AI (生成 AI) 技術がより広く利用しやすくなり、使いやすくなります。 ### 現在の情報 LLM の元のトレーニングデータソースがニーズに適していたとしても、関連性を維持することは困難です。RAG を使用すると、開発者は最新の研究、統計、またはニュースを生成モデルに提供できます。RAG を使用して、LLM をライブのソーシャルメディアフィード、ニュースサイト、またはその他の頻繁に更新される情報ソースに直接接続できます。その後、LLM は最新の情報をユーザーに提供できます。 ### ユーザー信頼の強化 RAG により、LLM はソース属性を使用して正確な情報を提示できます。出力には、出典への引用または参照を含めることができます。さらに詳しい説明や詳細が必要な場合は、ユーザーがソースドキュメントを自分で調べることもできます。これにより、生成 AI ソリューションに対する信頼と自信が高まります。 ### 開発者によるコントロールの強化 RAG を使用すると、開発者はチャットアプリケーションをより効率的にテストして改善できます。LLM の情報ソースを制御および変更して、変化する要件や部門間の使用に適応させることができます。開発者は、機密情報の取得をさまざまな権限レベルに制限し、LLM が適切な応答を生成するようにすることもできます。さらに、LLM が特定の質問について誤った情報源を参照している場合、トラブルシューティングや修正を行うこともできます。組織は、より幅広いアプリケーションに生成 AI の技術をより自信を持って実装できます。 ## 検索拡張生成はどのように機能しますか? RAG を使用しない場合、LLM はユーザー入力を受け取り、トレーニングされた情報、または既に知っている情報に基づいて応答を作成します。RAG では、ユーザー入力を利用して最初に新しいデータソースから情報を引き出す情報検索の成分が導入されました。ユーザークエリと関連情報は両方とも LLM に渡されます。LLM は、新しい知識とそのトレーニングデータを使用して、より良い回答を作成します。以下のセクションでは、プロセスの概要を説明します。 ### 外部データの作成 LLM の元のトレーニングデータセットの外にある新しいデータは、 *外部データ* と呼ばれます。API、データベース、ドキュメントリポジトリなど、複数のデータソースから取得できます。データは、ファイル、データベースレコード、長文テキストなど、さまざまな形式で存在する可能性があります。 *埋め込み言語モデル* と呼ばれる別の AI 技術では、データを数値表現に変換してベクトルデータベースに格納します。このプロセスにより、生成 AI モデルが理解できるナレッジライブラリが作成されます。 ### 関連情報を取得する 次の段階は、関連性検索を実行することです。ユーザークエリはベクトル表現に変換され、ベクトルデータベースと照合されます。たとえば、組織の人事に関する質問に答えることができるスマートチャットボットを考えてみましょう。従業員が *「年次休暇はどのくらいあるのか?」* と検索した場合システムは、個々の従業員の過去の休暇記録とともに、年次休暇ポリシー文書を取得します。これらの特定の文書は、従業員が入力した内容と非常に関連性が高いため、返却されます。関連性は、数学的なベクトル計算と表現を使用して計算および確立されました。 ### LLM プロンプトの拡張 次に、RAG モデルは、取得した関連データをコンテキストに追加することで、ユーザー入力 (またはプロンプト) を強化します。このステップでは、プロンプトエンジニアリング手法を使用して LLM と効果的に通信します。拡張プロンプトにより、大規模な言語モデルでもユーザークエリに対する正確な回答を生成できます。 ### 外部データを更新 次の疑問は、外部データが古くなったらどうなるかということかもしれません。 最新の情報を取得できるように維持するには、ドキュメントを非同期で更新し、ドキュメントの埋め込み表現を更新します。これは、自動リアルタイム処理または定期的なバッチ処理によって行うことができます。これはデータ分析に共通する課題です。変更管理には、さまざまなデータサイエンスのアプローチを使用できます。 次の図は、LLM で RAG を使用する場合の概念的なフローを示しています。 ![](https://docs.aws.amazon.com/images/sagemaker/latest/dg/images/jumpstart/jumpstart-fm-rag.jpg) ## AWS はお客様の検索拡張生成の要件をどのようにサポートできますか? [Amazon Bedrock](https://aws.amazon.com/jp/bedrock/) は、開発を簡素化し、プライバシーとセキュリティを維持しながら、生成 AI アプリケーションを組み立てるための高性能な基盤モデルと幅広い機能を提供する完全マネージド型サービスです。Amazon Bedrock のナレッジベースを使用すると、数回クリックするだけで、FM を RAG のデータソースに接続できます。ベクトル変換、取得、および改善された出力生成はすべて自動的に処理されます。 独自の RAG を管理している組織にとって、 [Amazon Kendra](https://aws.amazon.com/jp/kendra/) は機械学習を活用した高精度のエンタープライズ検索サービスです。最適化された Kendra [Retrieve API](https://docs.aws.amazon.com/kendra/latest/APIReference/API_Retrieve.html) が提供されており、これを Amazon Kendra の高精度セマンティックランカーと一緒に使用して RAG ワークフローのエンタープライズリトリーバーとして使用できます。たとえば、取得 API では次のことができます: - セマンティックに関連のある文章を、それぞれ最大 200 個のトークンワードから読み出せます。内容は関連性の高い順に並べられ、100 個取得します。 - [Amazon Simple Storage Service](https://aws.amazon.com/jp/s3/) 、SharePoint、Confluence、その他の Web サイトなどの一般的なデータ技術には、事前に組み立てされたコネクタを使用できます。 - HTML、ワード、PowerPoint、PDF、Excel、およびテキストファイルなど、幅広いドキュメント形式をサポートします。 - エンドユーザーの権限で許可されているドキュメントに基づいて回答をフィルターします。 Amazon は、より多くのカスタム生成 AI 解決を組み立てる組織向けのオプションも提供しています。 [Amazon SageMaker JumpStart](https://aws.amazon.com/jp/sagemaker/jumpstart/) は、FM、組み込みアルゴリズム、事前組み立てされた機械学習ソリューションを備えた 機械学習ハブであり、数回クリックするだけで展開できます。既存の SageMaker ノートブックとコード例を参照することで、RAG の実装をスピードアップできます。 [今すぐ無料アカウントを作成して](https://portal.aws.amazon.com/billing/signup) 、AWS での検索拡張生成を始めましょう