モデル呼び出しで推論プロファイルを使用する - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

モデル呼び出しで推論プロファイルを使用する

基盤モデルの代わりにクロスリージョン推論プロファイルを使用して、複数のリージョンにリクエストをルーティングできます。モデルのコストと使用状況を追跡するには、1 つ以上のリージョンで、アプリケーション推論プロファイルを使用できます。モデル推論の実行時に推論プロファイルを使用する方法については、任意の方法のタブを選択し、ステップに従います。

Console

推論プロファイルをサポートする機能を使用するには、次の手順を実行します。

  1. Amazon Bedrock コンソールを使用するアクセス許可を持つ IAM プリンシパル AWS Management Console を使用して にサインインします。次に、https://console.aws.amazon.com/bedrock/ で Amazon Bedrock コンソールを開きます。

  2. 推論プロファイルを使用する機能のページに移動します。たとえば、左側のナビゲーションペインからチャット/テキストプレイグラウンドを選択します。

  3. Select model を選択し、モデルを選択します。例えば、Amazon を選択し、次に Nova Premier を選択します。

  4. 推論で、ドロップダウンメニューから推論プロファイルを選択します。

  5. 使用する推論プロファイル (US Nova Premier など) を選択し、適用を選択します。

API

推論プロファイルは、次の API オペレーションを使用して、そのプロファイルに含まれる任意のリージョンから推論を実行する際に使用できます。

注記

クロスリージョン (システム定義) 推論プロファイルを使用している場合は、ARN または推論プロファイルの ID を使用できます。