オンデマンド推論用のカスタムモデルをデプロイする - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

オンデマンド推論用のカスタムモデルをデプロイする

モデルカスタマイズジョブを使用してカスタムモデルを作成するか、SageMaker AI でトレーニング済みのカスタム Amazon Nova モデルをインポートすると、そのモデルに対してオンデマンド推論を設定できます。オンデマンド推論では、使用した分に対してのみ料金が発生します。プロビジョンしたコンピューティングリソースを設定する必要はありません。

カスタムモデルのオンデマンド推論を設定するには、カスタムモデルのデプロイを使用して、モデルをデプロイします。カスタムモデルのデプロイ後、プロンプトを送信し、モデル推論を使用してレスポンスを生成する際に、デプロイの Amazon リソースネーム (ARN) を modelId パラメータとして使用します。

オンデマンド推論の料金については、「Amazon Bedrock の料金」を参照してください。オンデマンド推論用のカスタムモデルは、以下のリージョンにデプロイできます (Amazon Bedrock でサポートされているリージョンの詳細については、「Amazon Bedrock エンドポイントとクォータ」を参照してください)。

  • 米国東部 (バージニア北部)

  • 米国西部 (オレゴン)

オンデマンド推論用のカスタムモデルをデプロイするための前提条件

オンデマンド推論用のカスタムモデルをデプロイする前に、次の要件を満たしていることを確認してください。

  • 米国東部 (バージニア北部) リージョンまたは米国西部 (オレゴン) リージョンを使用する必要があります。

  • 2025/7/16 以降にモデルをカスタマイズする必要があります。サポートされているモデルのリストについては、「サポートされるベースモデル」を参照してください。

  • アカウントには、デプロイするモデルにアクセスするためのアクセス許可が必要です。モデルのカスタマイズのアクセス権限とセキュリティの詳細については、「モデルのカスタマイズのアクセスとセキュリティ」を参照してください。

  • モデルが AWS KMS キーで暗号化されている場合は、そのキーを使用するためのアクセス許可が必要です。詳細については、「カスタムモデルの暗号化」を参照してください。

サポートされるベースモデル

次のベースモデルに対してオンデマンド推論を設定できます。

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro

  • Meta Llama 3.3 70B Instruct

カスタムモデルをデプロイする

Amazon Bedrock コンソール AWS Command Line Interface、または AWS SDKs を使用してカスタムモデルをデプロイできます。推論にこのデプロイを使用する方法については、「オンデマンド推論にデプロイを使用する」を参照してください。

Console

カスタムモデルは、[カスタムモデル] ページから次のようにデプロイします。[オンデマンドのカスタムモデル] ページからでも、同じフィールドを使用してモデルをデプロイできます。このページにアクセスするには、ナビゲーションペインの [推論] で、[オンデマンドカスタムモデル] を選択します。

カスタムモデルをデプロイするには
  1. Amazon Bedrock コンソールを使用するアクセス許可を持つ IAM ID AWS Management Console を使用して にサインインします。Amazon Bedrock コンソール (https://console.aws.amazon.com/bedrock) を開きます。

  2. 左側のナビゲーションペインの [調整][カスタムモデル] を選択します。

  3. [モデル] タブで、デプロイするモデルのラジオボタンを選択します。

  4. [推論を設定] を選択し、[オンデマンドのデプロイ] を選択します。

  5. [デプロイの詳細] で、次の情報を入力します。

    • デプロイ名 (必須) – デプロイの一意の名前を入力します。

    • 説明 (オプション) – デプロイの説明を入力します。

    • タグ (オプション) – コスト配分とリソース管理用のタグを追加します。

  6. [作成] を選択します。デプロイのステータスが「Active」になると、カスタムモデルのオンデマンド推論の準備は整っています。カスタムモデルのタイプの詳細については、「オンデマンド推論にデプロイを使用する」を参照してください。

CLI

を使用してオンデマンド推論用のカスタムモデルをデプロイするには AWS Command Line Interface、カスタムモデルの Amazon リソースネーム (ARN) で create-custom-model-deployment コマンドを使用します。このコマンドは CreateCustomModelDeployment API オペレーションを使用します。レスポンスには、デプロイの ARN が含まれます。デプロイがアクティブな場合、推論リクエストを行う際に、この ARN を modelId として使用します。推論にこのデプロイを使用する方法については、「オンデマンド推論にデプロイを使用する」を参照してください。

aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --region region
API

オンデマンド推論用のカスタムモデルをデプロイするには、カスタムモデルの Amazon リソースネーム (ARN) で CreateCustomModelDeployment API オペレーションを使用します。レスポンスには、デプロイの ARN が含まれます。デプロイがアクティブな場合、推論リクエストを行う際に、この ARN を modelId として使用します。推論にこのデプロイを使用する方法については、「オンデマンド推論にデプロイを使用する」を参照してください。

次のコードは、SDK for Python (Boto3) を使用してカスタムモデルをデプロイする方法を示しています。

def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise

オンデマンド推論にデプロイを使用する

カスタムモデルのデプロイ後、プロンプトを送信し、モデル推論を使用してレスポンスを生成する際に、デプロイの Amazon リソースネーム (ARN) を modelId パラメータとして使用します。

推論リクエストの実行については、以下のトピックを参照してください。

カスタムモデルのデプロイを削除する

モデルのオンデマンド推論への使用が終了したら、デプロイを削除できます。デプロイを削除した後は、オンデマンド推論に使用することはできませんが、デプロイを削除しても、基盤となるカスタムモデルは削除されません。

カスタムモデルのデプロイは、Amazon Bedrock コンソール AWS Command Line Interface、または AWS SDKsを使用して削除できます。

重要

カスタムモデルデプロイの削除は元に戻せません。削除を続行する前に、今後デプロイが必要でないことを確認してください。オンデマンド推論にカスタムモデルを再度使用する必要がある場合は、新しいデプロイを作成する必要があります。

Console
カスタムモデルのデプロイを削除するには
  1. ナビゲーションペインの [推論] で、[オンデマンドカスタムモデル] をクリックします。

  2. 削除するカスタムモデルデプロイを選択します。

  3. [削除] を選択します。

  4. 確認ダイアログで、デプロイ名を入力して削除を確定します。

  5. [削除] を選択して、削除を確定します。

CLI

を使用してカスタムモデルデプロイを削除するには AWS Command Line Interface、デプロイ識別子を指定して delete-custom-model-deployment コマンドを使用します。このコマンドは DeleteCustomModelDeployment API オペレーションを使用します。

aws bedrock delete-custom-model-deployment \ --custom-model-deployment-identifier "deployment-arn-or-name" \ --region region
API

カスタムモデルのデプロイをプログラムで削除するには、デプロイの Amazon リソースネーム (ARN) または名前を指定して DeleteCustomModelDeployment API オペレーションを使用します。次のコードは、SDK for Python (Boto3) を使用してカスタムモデルのデプロイを削除する方法を示しています。

def delete_custom_model_deployment(bedrock_client): """Delete a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: dict: The response from the delete operation Raises: Exception: If there is an error deleting the deployment """ try: response = bedrock_client.delete_custom_model_deployment( customModelDeploymentIdentifier="Deployment identifier" ) print("Deleting deployment...") return response except Exception as e: print(f"Error deleting deployment: {str(e)}") raise