Ein benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen - Amazon Nova

Ein benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen

Nachdem Sie erfolgreich ein benutzerdefiniertes Modell mit einem Modellanpassungsauftrag (Feinabstimmung, Destillation oder fortgesetztes Vortraining) erstellt haben, können Sie eine On-Demand-Inferenz für das Modell einrichten.

Um On-Demand-Inferenz für ein benutzerdefiniertes Modell einzurichten, stellen Sie das Modell mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie Ihr benutzerdefiniertes Modell bereitgestellt haben, verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als modelId-Parameter in Ihren InvokeModel- oder Converse-API-Vorgängen. Sie können das bereitgestellte Modell für On-Demand-Inferenzen mit Amazon-Bedrock-Features wie Playgrounds, Agents und Wissensdatenbanken verwenden.

Unterstützte Modelle

Sie können On-Demand-Inferenz für die folgenden Modelle einrichten:

  • Amazon Nova Canvas

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro