翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
カスタムモデルをデプロイする
Amazon Bedrock コンソールAWS Command Line Interface、または AWSSDKs を使用してカスタムモデルをデプロイできます。推論にこのデプロイを使用する方法については、「オンデマンド推論にデプロイを使用する」を参照してください。
カスタムモデルのデプロイ (コンソール)
カスタムモデルは、[カスタムモデル] ページから次のようにデプロイします。[オンデマンドのカスタムモデル] ページからでも、同じフィールドを使用してモデルをデプロイできます。このページにアクセスするには、ナビゲーションペインの [推論] で、[オンデマンドカスタムモデル] を選択します。
カスタムモデルをデプロイするには
-
Amazon Bedrock コンソールを使用するアクセス許可を持つ IAM ID AWS マネジメントコンソールを使用して にサインインします。Amazon Bedrock コンソール (https://console.aws.amazon.com/bedrock
) を開きます。 -
左側のナビゲーションペインの [調整] で [カスタムモデル] を選択します。
-
[モデル] タブで、デプロイするモデルのラジオボタンを選択します。
-
[推論を設定] を選択し、[オンデマンドのデプロイ] を選択します。
-
[デプロイの詳細] で、次の情報を入力します。
-
デプロイ名 (必須) – デプロイの一意の名前を入力します。
-
説明 (オプション) – デプロイの説明を入力します。
-
タグ (オプション) – コスト配分とリソース管理用のタグを追加します。
-
-
[作成] を選択します。デプロイのステータスが「
Active」になると、カスタムモデルのオンデマンド推論の準備は整っています。カスタムモデルのタイプの詳細については、「オンデマンド推論にデプロイを使用する」を参照してください。
カスタムモデルをデプロイする (AWS Command Line Interface)
を使用してオンデマンド推論用のカスタムモデルをデプロイするにはAWS Command Line Interface、カスタムモデルの Amazon リソースネーム (ARN) で create-custom-model-deployment コマンドを使用します。このコマンドは CreateCustomModelDeployment API オペレーションを使用します。レスポンスには、デプロイの ARN が含まれます。デプロイがアクティブな場合、推論リクエストを行う際に、この ARN を modelId として使用します。推論にこのデプロイを使用する方法については、「オンデマンド推論にデプロイを使用する」を参照してください。
aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --regionregion
カスタムモデルのデプロイ (AWSSDKs)
オンデマンド推論用のカスタムモデルをデプロイするには、カスタムモデルの Amazon リソースネーム (ARN) で CreateCustomModelDeployment API オペレーションを使用します。レスポンスには、デプロイの ARN が含まれます。デプロイがアクティブな場合、推論リクエストを行う際に、この ARN を modelId として使用します。推論にこのデプロイを使用する方法については、「オンデマンド推論にデプロイを使用する」を参照してください。
次のコードは、SDK for Python (Boto3) を使用してカスタムモデルをデプロイする方法を示しています。
def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise