Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
So erstellen Sie ein Anwendungsinferenzprofil
Sie können ein Anwendungsinferenzprofil mit einer oder mehreren Regionen erstellen, um Nutzung und Kosten beim Aufrufen eines Modells nachzuverfolgen.
-
Um ein Anwendungsinferenzprofil für eine Region zu erstellen, geben Sie ein Basismodell an. Nutzung und Kosten für Anfragen, die mit diesem Modell an diese Region gestellt werden, werden nachverfolgt.
-
Um ein Anwendungsinferenzprofil für mehrere Regionen zu erstellen, geben Sie ein regionsübergreifendes (systemdefiniertes) Inferenzprofil an. Das Inferenzprofil leitet Anfragen an die Regionen weiter, die in dem von Ihnen ausgewählten regionsübergreifenden (systemdefinierten) Inferenzprofil definiert sind. Nutzung und Kosten für Anfragen an die Regionen im Inferenzprofil werden nachverfolgt.
Aktuell können Sie ein Inferenzprofil nur über die Amazon-Bedrock-API erstellen.
Um ein Inferenzprofil zu erstellen, senden Sie eine CreateInferenceProfileAnfrage mit einem Endpunkt der Amazon Bedrock-Steuerebene.
Die folgenden Felder sind erforderlich:
| Feld | Anwendungsfall |
|---|---|
| inferenceProfileName | Für die Angabe eines Namens für das Inferenzprofil. |
| modelSource | Für die Angabe des Basismodells oder des regionsübergreifenden (systemdefinierten) Inferenzprofils, das das Modell und die Regionen definiert, für die Sie Kosten und Nutzung verfolgen möchten. |
Die folgenden Felder sind optional:
| Feld | Anwendungsfall |
|---|---|
| description | Für die Angabe einer Beschreibung für den Prompt. |
| tags | Für das Anhängen von Tags an das Inferenzprofil. Weitere Informationen finden Sie unter Markieren von Amazon-Bedrock-Ressourcen und Organisieren und Verfolgen von Kosten mithilfe von AWS Kostenzuordnungs-Tags. |
| clientRequestToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter Sicherstellen von Idempotenz. |
Die Antwort gibt einen inferenceProfileArn zurück, der in anderen Aktionen im Zusammenhang mit Inferenzprofilen und auch mit Modellaufrufen und Amazon-Bedrock-Ressourcen verwendet werden kann.