Ein benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen
Nachdem Sie erfolgreich ein benutzerdefiniertes Modell mit einem Modellanpassungsauftrag (Feinabstimmung, Destillation oder fortgesetztes Vortraining) erstellt haben, können Sie eine On-Demand-Inferenz für das Modell einrichten.
Um On-Demand-Inferenz für ein benutzerdefiniertes Modell einzurichten, stellen Sie das Modell mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie Ihr benutzerdefiniertes Modell bereitgestellt haben, verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als modelId-Parameter in Ihren InvokeModel- oder Converse-API-Vorgängen. Sie können das bereitgestellte Modell für On-Demand-Inferenzen mit Amazon-Bedrock-Features wie Playgrounds, Agents und Wissensdatenbanken verwenden.
Themen
Unterstützte Modelle
Sie können On-Demand-Inferenz für die folgenden Modelle einrichten:
-
Amazon Nova Canvas
-
Amazon Nova Lite
-
Amazon Nova Micro
-
Amazon Nova Pro