オンデマンド推論用のカスタムモデルをデプロイする - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

オンデマンド推論用のカスタムモデルをデプロイする

モデルカスタマイズジョブを使用してカスタムモデルを作成するか、SageMaker AI でトレーニング済みのカスタム Amazon Nova モデルをインポートすると、そのモデルに対してオンデマンド推論を設定できます。オンデマンド推論では、使用した分に対してのみ料金が発生します。プロビジョンしたコンピューティングリソースを設定する必要はありません。

カスタムモデルのオンデマンド推論を設定するには、カスタムモデルのデプロイを使用して、モデルをデプロイします。カスタムモデルのデプロイ後、プロンプトを送信し、モデル推論を使用してレスポンスを生成する際に、デプロイの Amazon リソースネーム (ARN) を modelId パラメータとして使用します。

オンデマンド推論の料金については、「Amazon Bedrock の料金」を参照してください。オンデマンド推論用のカスタムモデルは、以下のリージョンにデプロイできます (Amazon Bedrock でサポートされているリージョンの詳細については、「Amazon Bedrock エンドポイントとクォータ」を参照してください)。

  • 米国東部 (バージニア北部)

  • 米国西部 (オレゴン)

サポートされるベースモデル

次のベースモデルに対してオンデマンド推論を設定できます。

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro

  • Meta Llama 3.3 70B Instruct