As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Implantar um modelo personalizado
Você pode implantar um modelo personalizado com o console Amazon Bedrock ou AWSSDKs. AWS Command Line Interface Para ter informações sobre como usar a implantação para inferência, consulte Usar uma implantação para inferência sob demanda.
Tópicos
Implantar um modelo personalizado (console)
Você implanta um modelo personalizado na página Modelos personalizados como se segue. Você também pode implantar um modelo na página Modelo personalizado sob demanda com os mesmos campos. Para encontrar essa página, em Inferência, no painel de navegação, escolha Modelo personalizado sob demanda.
Para implantar um modelo personalizado
-
Faça login no Console de gerenciamento da AWS com uma identidade do IAM que tenha permissões para usar o console Amazon Bedrock. Em seguida, abra o console Amazon Bedrock em https://console.aws.amazon.com/bedrock.
-
No painel de navegação à esquerda, escolha Modelos personalizados em Ajustar.
-
Na guia Modelos, selecione o botão de opção do modelo que você deseja implantar.
-
Escolha Configurar inferência e Implantar para uso sob demanda.
-
Na página Detalhes da implantação, forneça as seguintes informações:
-
Nome da implantação (obrigatório): insira um nome exclusivo para a implantação.
-
Descrição (opcional): insira uma descrição para a implantação.
-
Tags (opcional): adicione tags para alocação de custos e gerenciamento de recursos.
-
-
Escolha Criar. Quando o status da implantação for
Active, seu modelo personalizado estará pronto para inferência sob demanda. Para ter mais informações sobre como usar o modelo personalizado, consulte Usar uma implantação para inferência sob demanda.
Implantar modelo personalizado (AWS Command Line Interface)
Para implantar um modelo personalizado para inferência sob demanda usando oAWS Command Line Interface, use o create-custom-model-deployment comando com o Amazon Resource Name (ARN) do seu modelo personalizado. Esse comando usa a operação da API CreateCustomModelDeployment. A resposta inclui o ARN da implantação. Quando a implantação está ativa, você usa esse ARN como o modelId ao fazer solicitações de inferência. Para ter informações sobre como usar a implantação para inferência, consulte Usar uma implantação para inferência sob demanda.
aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --regionregion
Implantar modelo personalizado (AWSSDKs)
Para implantar um modelo personalizado para inferência sob demanda, use a operação de CreateCustomModelDeploymentAPI com o Amazon Resource Name (ARN) do seu modelo personalizado. A resposta inclui o ARN da implantação. Quando a implantação está ativa, você usa esse ARN como o modelId ao fazer solicitações de inferência. Para ter informações sobre como usar a implantação para inferência, consulte Usar uma implantação para inferência sob demanda.
O código a seguir mostra como usar o SDK para Python (Boto3) para implantar um modelo personalizado.
def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise