Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Implemente un modelo personalizado
Puede implementar un modelo personalizado con la consola Amazon Bedrock AWS Command Line Interface, o AWS SDKs. Para obtener información sobre el uso de la implementación con fines de inferencia, consulte. Utilice una implementación para realizar inferencias bajo demanda
Temas
Implemente un modelo personalizado (consola)
Puede implementar un modelo personalizado desde la página de modelos personalizados de la siguiente manera. También puede implementar un modelo desde la página de modelos personalizados bajo demanda con los mismos campos. Para encontrar esta página, en Inferir, en el panel de navegación, elija Modelo personalizado bajo demanda.
Para implementar un modelo personalizado
-
Inicie sesión AWS Management Console con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola Amazon Bedrock en https://console.aws.amazon.com/bedrock/
. -
En el panel de navegación de la izquierda, seleccione Modelos personalizados en Modelos fundacionales.
-
En la pestaña Modelos, seleccione el botón de radio del modelo que desee implementar.
-
Elija Configurar inferencia y elija Implementar bajo demanda.
-
En Detalles de la implementación, proporciona la siguiente información:
-
Nombre de la implementación (obligatorio): introduzca un nombre único para la implementación.
-
Descripción (opcional): introduzca una descripción para la implementación.
-
Etiquetas (opcional): agregue etiquetas para la asignación de costos y la administración de recursos.
-
-
Seleccione Crear. Cuando el estado de la implementación es
Active
, el modelo personalizado está listo para la inferencia bajo demanda. Para obtener más información sobre el uso del modelo personalizado, consulteUtilice una implementación para realizar inferencias bajo demanda.
Implementar un modelo personalizado (AWS Command Line Interface)
Para implementar un modelo personalizado para la inferencia bajo demanda mediante el AWS Command Line Interface, utilice el create-custom-model-deployment
comando con el Amazon Resource Name (ARN) del modelo personalizado. Este comando utiliza la operación de la API CreateCustomModelDeployment. La respuesta incluye el ARN del despliegue. Cuando la implementación está activa, se utiliza este ARN como el que se utiliza para modelId
realizar solicitudes de inferencia. Para obtener información sobre el uso de la implementación para la inferencia, consulte. Utilice una implementación para realizar inferencias bajo demanda
aws bedrock create-custom-model-deployment \ --model-deployment-name "
Unique name
" \ --model-arn "Custom Model ARN
" \ --description "Deployment description
" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token
" \ --regionregion
Implementar un modelo personalizado ()AWS SDKs
Para implementar un modelo personalizado para la inferencia bajo demanda, utilice la operación de CreateCustomModelDeploymentAPI con el Amazon Resource Name (ARN) de su modelo personalizado. La respuesta incluye el ARN del despliegue. Cuando la implementación está activa, se utiliza este ARN como el que se utiliza para modelId
realizar solicitudes de inferencia. Para obtener información sobre el uso de la implementación para la inferencia, consulte. Utilice una implementación para realizar inferencias bajo demanda
El siguiente código muestra cómo usar el SDK para Python (Boto3) para implementar un modelo personalizado.
def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="
Unique deployment name
", modelArn="Custom Model ARN
", description="Deployment description
", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise