Implemente um modelo personalizado - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Implemente um modelo personalizado

Você pode implantar um modelo personalizado com o console Amazon Bedrock ou AWS SDKs. AWS Command Line Interface Para obter informações sobre como usar a implantação para inferência, consulteUse uma implantação para inferência sob demanda.

Implantar um modelo personalizado (console)

Você implanta um modelo personalizado na página Modelos personalizados da seguinte forma. Você também pode implantar um modelo na página Modelo personalizado sob demanda com os mesmos campos. Para encontrar essa página, em Inferir no painel de navegação, escolha Modelo personalizado sob demanda.

Para implantar um modelo personalizado
  1. Faça login no AWS Management Console com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock/.

  2. No painel de navegação à esquerda, escolha Modelos personalizados em Modelos de base.

  3. Na guia Modelos, escolha o botão de rádio para o modelo que você deseja implantar.

  4. Escolha Configurar inferência e escolha Implantar para uso sob demanda.

  5. Em Detalhes da implantação, forneça as seguintes informações:

    • Nome da implantação (obrigatório) — Insira um nome exclusivo para sua implantação.

    • Descrição (opcional) — Insira uma descrição para sua implantação.

    • Tags (opcional) — Adicione tags para alocação de custos e gerenciamento de recursos.

  6. Escolha Criar. Quando o status da implantação éActive, seu modelo personalizado está pronto para inferência sob demanda. Para obter mais informações sobre como usar o modelo personalizado, consulteUse uma implantação para inferência sob demanda.

Implantar um modelo personalizado (AWS Command Line Interface)

Para implantar um modelo personalizado para inferência sob demanda usando o AWS Command Line Interface, use o create-custom-model-deployment comando com o Amazon Resource Name (ARN) do seu modelo personalizado. Esse comando usa a operação da API CreateCustomModelDeployment. A resposta inclui o ARN da implantação. Quando a implantação está ativa, você usa esse ARN como o modelId ao fazer solicitações de inferência. Para obter informações sobre como usar a implantação para inferência, consulteUse uma implantação para inferência sob demanda.

aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --region region

Implantar um modelo personalizado (AWS SDKs)

Para implantar um modelo personalizado para inferência sob demanda, use a operação de CreateCustomModelDeploymentAPI com o Amazon Resource Name (ARN) do seu modelo personalizado. A resposta inclui o ARN da implantação. Quando a implantação está ativa, você usa esse ARN como o modelId ao fazer solicitações de inferência. Para obter informações sobre como usar a implantação para inferência, consulteUse uma implantação para inferência sob demanda.

O código a seguir mostra como usar o SDK para Python (Boto3) para implantar um modelo personalizado.

def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise