翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
API を使用してプロンプトを送信し、レスポンスを生成する
Amazon Bedrock には、モデル推論を実行するための followingAPI オペレーションが用意されています。
-
InvokeModel – プロンプトを送信し、レスポンスを生成します。リクエスト本文はモデル固有です。ストリーミングレスポンスを生成するには、InvokeModelWithResponseStream を使用します。
-
Converse – プロンプトを送信し、すべてのモデルにわたって統合された構造でレスポンスを生成します。モデル固有のリクエストフィールドを
additionalModelRequestFieldsフィールドで指定できます。コンテキストがわかるように、システムプロンプトと以前の会話を含めることもできます。ストリーミングレスポンスを生成するには、ConverseStream を使用します。 -
StartAsyncInvoke – プロンプトを送信し、後で取得できるレスポンスを非同期的に生成します。動画の生成に使用されます。
-
OpenAI Chat completions API – Amazon Bedrock でサポートされているモデルで OpenAI Chat Completions API
を使用してレスポンスを生成します。
モデル推論では、次のパラメータを決定する必要があります。
-
モデル ID – モデルまたは推論プロファイルの ID または Amazon リソースネーム (ARN)。推論の
modelIdフィールドで使用します。次の表は、各種リソースの ID の調べ方をまとめたものです。モデルタイプ 説明 コンソールで ID を調べる API で ID を調べる 関連資料 ベースモデル プロバイダーが提供する基盤モデル。 左側のナビゲーションペインから [ベースモデル] を選択して、モデルを検索し、[モデル ID] を探します。 GetFoundationModel または ListFoundationModels リクエストを送信し、レスポンスで modelIdを探します。「Amazon Bedrock でサポートされている基盤モデル」の ID のリストを参照してください。 推論プロファイル 複数のリージョンでモデルの呼び出しを許可することで、スループットを向上させます。 左側のナビゲーションペインから [クロスリージョン推論] を選択し、推論プロファイル ID を探します。 GetInferenceProfile または ListInferenceProfiles リクエストを送信し、レスポンスで inferenceProfileIdを探します。「推論プロファイルでサポートされているリージョンおよびモデル」の ID のリストを参照してください。 プロンプト プロンプト管理を使用して構築されたプロンプト。 左側のナビゲーションペインから [プロンプト管理] を選択し、[プロンプト] セクションでプロンプトを選択して、プロンプト ARN を探します。 GetPrompt または ListPrompts リクエストを送信し、レスポンスで promptArnを探します。「Amazon Bedrock のプロンプト管理で再利用可能なプロンプトを構築して保存する」で、プロンプト管理でプロンプトを作成する方法を確認してください。 プロビジョンドスループット 固定コストでモデルのスループットを高めます。 左側のナビゲーションペインから [プロビジョンドスループット] を選択して、プロビジョンドスループットを選択し、ARN を探します。 GetProvisionedModelThroughput または ListProvisionedModelThroughputs リクエストを送信し、レスポンスで provisionedModelArnを探します。モデルのプロビジョンドスループットの購入方法については、「Amazon Bedrock のプロビジョンドスループットでモデル呼び出し容量を増やす」を参照してください。 カスタムモデル トレーニングデータに基づいて、基盤モデルのパラメータが調整されたモデル。 カスタムモデルのプロビジョンドスループットを購入したら、該当する手順に従ってプロビジョンドスループットの ID を調べます。 カスタムモデルのプロビジョンドスループットを購入したら、該当する手順に従ってプロビジョンドスループットの ID を調べます。 モデルのカスタマイズ方法については、「モデルをカスタマイズしてユースケースのパフォーマンスを向上させる」を参照してください。カスタマイズ後、モデル用のプロビジョンドスループットを購入し、プロビジョンドスループットの ID を使用する必要があります。 -
リクエスト本文 – モデルの推論パラメータおよびその他の設定が含まれます。各ベースモデルには、独自の推論パラメータがあります。カスタムモデルまたはプロビジョニングモデルの推論パラメータは、作成元のベースモデルによって異なります。詳細については、「Inference request parameters and response fields for foundation models」を参照してください。
トピックを選択して、モデル呼び出し API の使い方を確認してください。