Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Einrichten von Inferenz für ein benutzerdefiniertes Modell
Nach der Erstellung eines benutzerdefinierten Modells können Sie die Inferenz mit einer der folgenden Optionen einrichten:
-
Bereitgestellten Durchsatz erwerben – Erwerben Sie bereitgestellten Durchsatz für Ihr Modell, um dedizierte Rechenkapazität mit garantiertem Durchsatz für gleichbleibende Leistung und geringere Latenz einzurichten.
Weitere Informationen zu bereitgestelltem Durchsatz finden Sie unter Erhöhen Sie die Kapazität für den Modellaufruf mit Provisioned Throughput in Amazon Bedrock. Weitere Informationen zur Verwendung von benutzerdefinierten Modellen mit bereitgestelltem Durchsatz finden Sie unter Erwerben von bereitgestelltem Durchsatz für ein benutzerdefiniertes Modell.
-
Benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen – Zum Einrichten von On-Demand-Inferenz stellen Sie das Modell mit einer benutzerdefinierten Modellbereitstellung bereit. Nach der Bereitstellung des Modells können Sie es mithilfe des ARN für die benutzerdefinierte Modellbereitstellung aufrufen. Bei On-Demand-Inferenz zahlen Sie nur für das, was Sie tatsächlich nutzen. Zudem müssen Sie keine bereitgestellten Rechenressourcen einrichten.
Weitere Informationen zur Bereitstellung benutzerdefinierter Modelle für On-Demand-Inferenz finden Sie unter Bereitstellen eines benutzerdefinierten Modells für On-Demand-Inferenz.