Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Stellen Sie ein benutzerdefiniertes Modell bereit
Sie können ein benutzerdefiniertes Modell mit der Amazon Bedrock-Konsole, AWS Command Line Interface, oder AWS SDKs bereitstellen. Informationen zur Verwendung der Bereitstellung für Inferenz finden Sie unter. Verwenden Sie eine Bereitstellung für On-Demand-Inferenz
Themen
Stellen Sie ein benutzerdefiniertes Modell (Konsole) bereit
Sie stellen ein benutzerdefiniertes Modell auf der Seite Benutzerdefinierte Modelle wie folgt bereit. Sie können ein Modell auch über die On-Demand-Seite Benutzerdefiniertes Modell mit denselben Feldern bereitstellen. Um diese Seite zu finden, wählen Sie im Navigationsbereich unter Ableiten die Option Benutzerdefiniertes Modell auf Anfrage aus.
Um ein benutzerdefiniertes Modell bereitzustellen
-
Melden Sie sich bei der AWS Management Console mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter https://console.aws.amazon.com/bedrock/
. -
Wählen Sie im linken Navigationsbereich unter Foundation-Modelle die Option Benutzerdefinierte Modelle aus.
-
Wählen Sie auf der Registerkarte Modelle das Optionsfeld für das Modell aus, das Sie bereitstellen möchten.
-
Wählen Sie „Inferenz einrichten“ und anschließend „Für On-Demand bereitstellen“ aus.
-
Geben Sie unter Bereitstellungsdetails die folgenden Informationen ein:
-
Bereitstellungsname (erforderlich) — Geben Sie einen eindeutigen Namen für Ihre Bereitstellung ein.
-
Beschreibung (optional) — Geben Sie eine Beschreibung für Ihre Bereitstellung ein.
-
Tags (optional) — Fügen Sie Tags für die Kostenzuweisung und das Ressourcenmanagement hinzu.
-
-
Wählen Sie Erstellen aus. Wenn der Status der Bereitstellung lautet
Active
, ist Ihr benutzerdefiniertes Modell bereit für On-Demand-Inferenzen. Weitere Informationen zur Verwendung des benutzerdefinierten Modells finden Sie unterVerwenden Sie eine Bereitstellung für On-Demand-Inferenz.
Stellen Sie ein benutzerdefiniertes Modell bereit (AWS Command Line Interface)
Um ein benutzerdefiniertes Modell für On-Demand-Inferenzen mithilfe von bereitzustellen AWS Command Line Interface, verwenden Sie den create-custom-model-deployment
Befehl mit dem Amazon-Ressourcennamen (ARN) Ihres benutzerdefinierten Modells. Dieser Befehl verwendet die CreateCustomModelDeploymentAPI-Operation. Die Antwort beinhaltet den ARN der Bereitstellung. Wenn die Bereitstellung aktiv ist, verwenden Sie diesen ARN als Inferenzanforderungen. modelId
Hinweise zur Verwendung des Deployments für Inferenzen finden Sie unter. Verwenden Sie eine Bereitstellung für On-Demand-Inferenz
aws bedrock create-custom-model-deployment \ --model-deployment-name "
Unique name
" \ --model-arn "Custom Model ARN
" \ --description "Deployment description
" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token
" \ --regionregion
Stellen Sie ein benutzerdefiniertes Modell bereit ()AWS SDKs
Um ein benutzerdefiniertes Modell für On-Demand-Inferenzen bereitzustellen, verwenden Sie den CreateCustomModelDeploymentAPI-Vorgang mit dem Amazon-Ressourcennamen (ARN) Ihres benutzerdefinierten Modells. Die Antwort beinhaltet den ARN der Bereitstellung. Wenn die Bereitstellung aktiv ist, verwenden Sie diesen ARN als Inferenzanforderungen. modelId
Hinweise zur Verwendung des Deployments für Inferenzen finden Sie unter. Verwenden Sie eine Bereitstellung für On-Demand-Inferenz
Der folgende Code zeigt, wie Sie das SDK for Python (Boto3) verwenden, um ein benutzerdefiniertes Modell bereitzustellen.
def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="
Unique deployment name
", modelArn="Custom Model ARN
", description="Deployment description
", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise