翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Inference request parameters and response fields for foundation models
このセクションのトピックでは、Amazon Bedrock が提供するモデルのリクエストパラメータとレスポンスフィールドについて説明します。モデル呼び出し (InvokeModel、InvokeModelWithResponseStream、Converse、ConverseStream) の API オペレーションを使用してモデルに対して推論呼び出しを行う際は、使用しているモデルに応じてリクエストパラメータを含めます。
カスタムモデルを作成した場合は、カスタマイズの基となった基盤モデルと同じ推論パラメータを使用します。
カスタマイズしたモデルを Amazon Bedrock にインポートする場合は、インポートするカスタマイズされたモデルに記載されている推論パラメータと同じパラメータを使用します。このドキュメントで説明されているモデルの推論パラメータと一致しない推論パラメータを使用している場合、それらのパラメータは無視されます。
さまざまなモデルのモデルパラメータを表示する前に、次の章の「プロンプトを送信し、モデル推論を使用してレスポンスを生成する」を読んで、モデル推論とは何かを理解しておく必要があります。
Amazon Bedrock のさまざまなモデルの詳細については、以下のページを参照してください。
-
モデル呼び出し API オペレーションで使用するモデルとその ID、サポートされるリージョン、サポートされる一般的な機能については、「Amazon Bedrock でサポートされている基盤モデル」を参照してください。
-
各モデルがサポートされている Amazon Bedrock リージョンの一覧については、「Amazon Bedrock AWS リージョンでの によるモデルサポート」を参照してください。
-
各モデルがサポートする Amazon Bedrock 機能の一覧については、「Amazon Bedrock の機能別のモデルサポート」を参照してください。
-
Converse API (
ConverseとConverseStream) が特定のモデルをサポートしているかどうかを確認するには、「サポートされているモデルとモデルの機能」を参照してください。 -
モデルで推論呼び出しを行う場合は、モデルのプロンプトを含めます。Amazon Bedrock がサポートするモデルのプロンプト作成に関する一般情報については、「 プロンプトエンジニアリングの概念」を参照してください。
-
コード例については、AWSSDKsコード例 を参照してください。
プロバイダーのモデルとそのパラメータを確認するには、各トピックを選択してください。