Implantar um modelo personalizado - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Implantar um modelo personalizado

Você pode implantar um modelo personalizado com o console Amazon Bedrock AWS Command Line Interface, ou AWS SDKs. Para obter informações sobre como usar a implantação para inferência, consulteUsar uma implantação para inferência sob demanda.

Implantar um modelo personalizado (console)

Você implanta um modelo personalizado na página Modelos personalizados como se segue. Você também pode implantar um modelo na página Modelo personalizado sob demanda com os mesmos campos. Para encontrar essa página, em Inferir no painel de navegação, escolha Modelo personalizado sob demanda.

Para implantar um modelo personalizado
  1. Faça login no AWS Management Console com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock.

  2. No painel de navegação à esquerda, escolha Modelos personalizados em Modelos de base.

  3. Na guia Modelos, selecione o botão de opção do modelo que você deseja implantar.

  4. Escolha Configurar inferência e Implantar para uso sob demanda.

  5. Na página Detalhes da implantação, forneça as seguintes informações:

    • Nome da implantação (obrigatório): insira um nome exclusivo para a implantação.

    • Descrição (opcional): insira uma descrição para a implantação.

    • Tags (opcional): adicione tags para alocação de custos e gerenciamento de recursos.

  6. Escolha Criar. Quando o status da implantação éActive, seu modelo personalizado está pronto para inferência sob demanda. Para obter mais informações sobre como usar o modelo personalizado, consulteUsar uma implantação para inferência sob demanda.

Implantar modelo personalizado (AWS Command Line Interface)

Para implantar um modelo personalizado para inferência sob demanda usando o AWS Command Line Interface, use o create-custom-model-deployment comando com o Amazon Resource Name (ARN) do seu modelo personalizado. Esse comando usa a operação da API CreateCustomModelDeployment. A resposta inclui o ARN da implantação. Quando a implantação está ativa, você usa esse ARN como o modelId ao fazer solicitações de inferência. Para obter informações sobre como usar a implantação para inferência, consulteUsar uma implantação para inferência sob demanda.

aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --region region

Implantar modelo personalizado (AWS SDKs)

Para implantar um modelo personalizado para inferência sob demanda, use a operação de CreateCustomModelDeploymentAPI com o Amazon Resource Name (ARN) do seu modelo personalizado. A resposta inclui o ARN da implantação. Quando a implantação está ativa, você usa esse ARN como o modelId ao fazer solicitações de inferência. Para obter informações sobre como usar a implantação para inferência, consulteUsar uma implantação para inferência sob demanda.

O código a seguir mostra como usar o SDK para Python (Boto3) para implantar um modelo personalizado.

def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise