Ein benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen - Amazon Nova

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Ein benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen

Nachdem Sie erfolgreich ein benutzerdefiniertes Modell mit einem Modellanpassungsauftrag (Feinabstimmung, Destillation oder fortgesetztes Vortraining) erstellt haben, können Sie eine On-Demand-Inferenz für das Modell einrichten.

Um On-Demand-Inferenz für ein benutzerdefiniertes Modell einzurichten, stellen Sie das Modell mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie Ihr benutzerdefiniertes Modell bereitgestellt haben, verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als modelId-Parameter in Ihren InvokeModel- oder Converse-API-Vorgängen. Sie können das bereitgestellte Modell für On-Demand-Inferenzen mit Amazon-Bedrock-Features wie Playgrounds, Agents und Wissensdatenbanken verwenden.

Unterstützte Modelle

Sie können On-Demand-Inferenz für die folgenden Modelle einrichten:

  • Amazon Nova Canvas

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro