翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
カスタムモデルのデプロイ
Amazon Bedrock コンソール AWS Command Line Interface、または AWS SDKs を使用してカスタムモデルをデプロイできます。推論にデプロイを使用する方法については、「」を参照してくださいオンデマンド推論にデプロイを使用する。
カスタムモデルのデプロイ (コンソール)
カスタムモデルは、カスタムモデルページから次のようにデプロイします。同じフィールドを使用して、カスタムモデルのオンデマンドページからモデルをデプロイすることもできます。このページを検索するには、ナビゲーションペインの推論で、オンデマンドでカスタムモデルを選択します。
カスタムモデルをデプロイするには
-
Amazon Bedrock コンソールを使用するアクセス許可を持つ IAM ID AWS Management Console を使用して にサインインします。次に、https://console.aws.amazon.com/bedrock/
で Amazon Bedrock コンソールを開きます。 -
左側のナビゲーションペインの [基盤モデル] で [カスタムモデル] を選択します。
-
Models タブで、デプロイするモデルのラジオボタンを選択します。
-
「推論の設定」を選択し、「オンデマンドのデプロイ」を選択します。
-
デプロイの詳細で、次の情報を入力します。
-
デプロイ名 (必須) – デプロイの一意の名前を入力します。
-
説明 (オプション) – デプロイの説明を入力します。
-
タグ (オプション) – コスト配分とリソース管理用のタグを追加します。
-
-
[作成] を選択します。デプロイのステータスが の場合
Active
、カスタムモデルはオンデマンド推論の準備が整います。カスタムモデルの使用の詳細については、「」を参照してくださいオンデマンド推論にデプロイを使用する。
カスタムモデルのデプロイ (AWS Command Line Interface)
を使用してオンデマンド推論用のカスタムモデルをデプロイするには AWS Command Line Interface、カスタムモデルの Amazon リソースネーム (ARN) で create-custom-model-deployment
コマンドを使用します。このコマンドは CreateCustomModelDeployment API オペレーションを使用します。レスポンスには、デプロイの ARN が含まれます。デプロイがアクティブな場合、推論リクエストを行うmodelId
ときにこの ARN を として使用します。推論にデプロイを使用する方法については、「」を参照してくださいオンデマンド推論にデプロイを使用する。
aws bedrock create-custom-model-deployment \ --model-deployment-name "
Unique name
" \ --model-arn "Custom Model ARN
" \ --description "Deployment description
" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token
" \ --regionregion
カスタムモデルのデプロイ (AWS SDKs)
オンデマンド推論用のカスタムモデルをデプロイするには、カスタムモデルの Amazon リソースネーム (ARN) で CreateCustomModelDeployment API オペレーションを使用します。レスポンスには、デプロイの ARN が含まれます。デプロイがアクティブな場合、推論リクエストを行うmodelId
ときにこの ARN を として使用します。推論にデプロイを使用する方法については、「」を参照してくださいオンデマンド推論にデプロイを使用する。
次のコードは、 SDK for Python (Boto3) を使用してカスタムモデルをデプロイする方法を示しています。
def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="
Unique deployment name
", modelArn="Custom Model ARN
", description="Deployment description
", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise