Stellen Sie ein benutzerdefiniertes Modell für On-Demand-Inferenz bereit - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Stellen Sie ein benutzerdefiniertes Modell für On-Demand-Inferenz bereit

Nachdem Sie ein benutzerdefiniertes Modell mit einem Auftrag zur Modellanpassung erstellt oder ein SageMaker KI-gestütztes benutzerdefiniertes Amazon Nova Modell importiert haben, können Sie On-Demand-Inferenz für das Modell einrichten. Bei On-Demand-Inferenz zahlen Sie nur für das, was Sie tatsächlich nutzen, und Sie müssen keine bereitgestellten Rechenressourcen einrichten.

Um On-Demand-Inferenz für ein benutzerdefiniertes Modell einzurichten, stellen Sie es mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie Ihr benutzerdefiniertes Modell bereitgestellt haben, verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als modelId Parameter, wenn Sie Eingabeaufforderungen senden und Antworten mit Modellinferenz generieren.

Informationen zu den Preisen für On-Demand-Inferenzen finden Sie unter Amazon Bedrock-Preise. Sie können ein benutzerdefiniertes Modell für On-Demand-Inferenz in den folgenden Regionen einsetzen (weitere Informationen zu den in Amazon Bedrock unterstützten Regionen finden Sie unter Amazon Bedrock Endpoints and Quotas):

  • USA Ost (Nord-Virginia)

Unterstützte Basismodelle

Sie können On-Demand-Inferenz für die folgenden Basismodelle einrichten:

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro