사용자 지정 모델 배포 - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

사용자 지정 모델 배포

Amazon Bedrock 콘솔 AWS Command Line Interface또는 AWS SDKs. 추론에 배포를 사용하는 방법에 대한 자세한 내용은 섹션을 참조하세요온디맨드 추론에 배포 사용.

사용자 지정 모델 배포(콘솔)

다음과 같이 사용자 지정 모델 페이지에서 사용자 지정 모델을 배포합니다. 사용자 지정 모델 온디맨드 페이지에서 동일한 필드를 사용하여 모델을 배포할 수도 있습니다. 이 페이지를 찾으려면 탐색 창의 추론에서 온디맨드 사용자 지정 모델을 선택합니다.

사용자 지정 모델을 배포하려면
  1. Amazon Bedrock 콘솔을 사용할 권한이 있는 IAM 자격 증명 AWS Management Console 으로에 로그인합니다. 그런 다음 https://console.aws.amazon.com/bedrock/ Amazon Bedrock 콘솔을 엽니다.

  2. 왼쪽 탐색 창의 파운데이션 모델에서 사용자 지정 모델을 선택합니다.

  3. 모델 탭에서 배포하려는 모델의 라디오 버튼을 선택합니다.

  4. 추론 설정을 선택하고 온디맨드에 배포를 선택합니다.

  5. 배포 세부 정보에서 다음 정보를 제공합니다.

    • 배포 이름(필수) - 배포의 고유한 이름을 입력합니다.

    • 설명(선택 사항) - 배포에 대한 설명을 입력합니다.

    • 태그(선택 사항) - 비용 할당 및 리소스 관리를 위한 태그를 추가합니다.

  6. 생성(Create)을 선택합니다. 배포 상태가 이면 사용자 지정 모델을 온디맨드 추론할 준비가 된 Active것입니다. 사용자 지정 모델 사용에 대한 자세한 내용은 섹션을 참조하세요온디맨드 추론에 배포 사용.

사용자 지정 모델 배포(AWS Command Line Interface)

를 사용하여 온디맨드 추론을 위한 사용자 지정 모델을 배포하려면 사용자 지정 모델의 Amazon 리소스 이름(ARN)과 함께 create-custom-model-deployment 명령을 AWS Command Line Interface사용합니다. 이 명령은 CreateCustomModelDeployment API 작업을 사용합니다. 응답에는 배포의 ARN이 포함됩니다. 배포가 활성화되면 추론 요청을 할 modelId 때이 ARN을 로 사용합니다. 추론에 배포를 사용하는 방법에 대한 자세한 내용은 섹션을 참조하세요온디맨드 추론에 배포 사용.

aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --region region

사용자 지정 모델(AWS SDKs) 배포

온디맨드 추론을 위해 사용자 지정 모델을 배포하려면 사용자 지정 모델의 Amazon 리소스 이름(ARN)과 함께 CreateCustomModelDeployment API 작업을 사용합니다. 응답에는 배포의 ARN이 포함됩니다. 배포가 활성화되면 추론 요청을 할 modelId 때이 ARN을 로 사용합니다. 추론에 배포를 사용하는 방법에 대한 자세한 내용은 섹션을 참조하세요온디맨드 추론에 배포 사용.

다음 코드는 Python용 SDK(Boto3)를 사용하여 사용자 지정 모델을 배포하는 방법을 보여줍니다.

def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise