Bereitstellen eines benutzerdefinierten Modells - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Bereitstellen eines benutzerdefinierten Modells

Sie können ein benutzerdefiniertes Modell mit der Amazon Bedrock-Konsole,AWS Command Line Interface, oder AWS SDKs bereitstellen. Informationen zur Verwendung der Bereitstellung für Inferenz finden Sie unter Verwenden einer Bereitstellung für die On-Demand-Inferenz.

Bereitstellen eines benutzerdefinierten Modells (Konsole)

Sie stellen ein benutzerdefiniertes Modell auf der Seite Benutzerdefinierte Modelle wie folgt bereit. Sie können ein Modell auch über die Benutzerdefiniertes On-Demand-Modell mit denselben Feldern bereitstellen. Diese Seite finden Sie, indem Sie im Navigationsbereich unter Inferieren die Option Benutzerdefiniertes On-Demand-Modell auswählen.

So stellen Sie ein benutzerdefinierten Modell bereit
  1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter https://console.aws.amazon.com/bedrock.

  2. Wählen Sie im linken Navigationsbereich unter Optimieren die Option Benutzerdefinierte Modelle aus.

  3. Wählen Sie auf der Registerkarte Modelle das Optionsfeld für das Modell aus, das Sie bereitstellen möchten.

  4. Wählen Sie Inferenz einrichten und anschließend Auf Abruf bereitstellen aus.

  5. Geben Sie unter Einzelheiten zur Bereitstellung die folgenden Informationen an:

    • Name der Bereitstellung (erforderlich) – Geben Sie einen eindeutigen Namen für die Bereitstellung ein.

    • Beschreibung (optional) – Geben Sie eine Beschreibung der Bereitstellung ein.

    • Tags (optional) – Fügen Sie Tags für die Kostenzuordnung und das Ressourcenmanagement hinzu.

  6. Wählen Sie Erstellen aus. Wenn der Status der Bereitstellung Active lautet, ist das benutzerdefinierte Modell bereit für On-Demand-Inferenz. Weitere Informationen zu den benutzerdefinierten Modellen finden Sie unter Verwenden einer Bereitstellung für die On-Demand-Inferenz.

Bereitstellen eines benutzerdefinierten Modells (AWS Command Line Interface)

Um ein benutzerdefiniertes Modell für On-Demand-Inferenzen mithilfe von bereitzustellenAWS Command Line Interface, verwenden Sie den create-custom-model-deployment Befehl mit dem Amazon-Ressourcennamen (ARN) Ihres benutzerdefinierten Modells. Dieser Befehl verwendet die CreateCustomModelDeploymentAPI-Operation. Die Antwort enthält den ARN der Bereitstellung. Wenn die Bereitstellung aktiv ist, verwenden Sie diesen ARN als modelId beim Stellen von Inferenzanforderungen. Informationen zur Verwendung der Bereitstellung für Inferenz finden Sie unter Verwenden einer Bereitstellung für die On-Demand-Inferenz.

aws bedrock create-custom-model-deployment \ --model-deployment-name "Unique name" \ --model-arn "Custom Model ARN" \ --description "Deployment description" \ --tags '[ { "key": "Environment", "value": "Production" }, { "key": "Team", "value": "ML-Engineering" }, { "key": "Project", "value": "CustomerSupport" } ]' \ --client-request-token "unique-deployment-token" \ --region region

Bereitstellen eines benutzerdefinierten Modells (AWSSDKs)

Um ein benutzerdefiniertes Modell für On-Demand-Inferenzen bereitzustellen, verwenden Sie den CreateCustomModelDeploymentAPI-Vorgang mit dem Amazon-Ressourcennamen (ARN) Ihres benutzerdefinierten Modells. Die Antwort enthält den ARN der Bereitstellung. Wenn die Bereitstellung aktiv ist, verwenden Sie diesen ARN als modelId beim Stellen von Inferenzanforderungen. Informationen zur Verwendung der Bereitstellung für Inferenz finden Sie unter Verwenden einer Bereitstellung für die On-Demand-Inferenz.

Der folgende Code zeigt, wie Sie das SDK for Python (Boto3) verwenden, um ein benutzerdefiniertes Modell bereitzustellen.

def create_custom_model_deployment(bedrock_client): """Create a custom model deployment Args: bedrock_client: A boto3 Amazon Bedrock client for making API calls Returns: str: The ARN of the new custom model deployment Raises: Exception: If there is an error creating the deployment """ try: response = bedrock_client.create_custom_model_deployment( modelDeploymentName="Unique deployment name", modelArn="Custom Model ARN", description="Deployment description", tags=[ {'key': 'Environment', 'value': 'Production'}, {'key': 'Team', 'value': 'ML-Engineering'}, {'key': 'Project', 'value': 'CustomerSupport'} ], clientRequestToken=f"deployment-{uuid.uuid4()}" ) deployment_arn = response['customModelDeploymentArn'] print(f"Deployment created: {deployment_arn}") return deployment_arn except Exception as e: print(f"Error creating deployment: {str(e)}") raise