Erfahren Sie mehr über Anwendungsfälle für verschiedene Modellinferenzmethoden - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erfahren Sie mehr über Anwendungsfälle für verschiedene Modellinferenzmethoden

Sie können die Modellinferenz auf folgende Weise direkt ausführen:

Methode Anwendungsfall
Amazon Bedrock Konsolenspielplätze Führen Sie Inferenz in einer benutzerfreundlichen grafischen Oberfläche aus. Praktisch für die Erkundung.
Converse oder ConverseStream Implementieren Sie Konversationsanwendungen mit einer einheitlichen API für die Modelleingabe.
InvokeModel oder InvokeModelWithResponseStream Senden Sie eine einzige Aufforderung und generieren Sie synchron eine Antwort. Nützlich für die Generierung von Antworten in Echtzeit oder für Suchanfragen.
StartAsyncInvoke Senden Sie eine einzelne Aufforderung und generieren Sie asynchron eine Antwort. Nützlich für die Generierung von Antworten in großem Umfang.
CreateModelInvocationJob Bereiten Sie einen Datensatz mit Eingabeaufforderungen vor und generieren Sie Antworten stapelweise.

Die folgenden Funktionen von Amazon Bedrock verwenden auch Modellinferenz als Schritt in einem größeren Workflow:

  • Die Modellevaluierung verwendet den Modellaufrufprozess, um die Leistung verschiedener Modelle zu bewerten, nachdem Sie eine Anfrage eingereicht haben. CreateEvaluationJob

  • Wissensdatenbanken verwenden den Modellaufruf, wenn sie die RetrieveAndGenerateAPI verwenden, um eine Antwort auf der Grundlage von Ergebnissen zu generieren, die aus einer Wissensdatenbank abgerufen wurden.

  • Agenten verwenden den Modellaufruf, um Antworten in verschiedenen Phasen einer InvokeAgentAnfrage zu generieren.

  • Flows umfassen Amazon Bedrock-Ressourcen wie Eingabeaufforderungen, Wissensdatenbanken und Agenten, die den Modellaufruf verwenden.

Nachdem Sie verschiedene Foundation-Modelle mit unterschiedlichen Eingabeaufforderungen und Inferenzparametern getestet haben, können Sie Ihre Anwendung so konfigurieren, dass sie diese APIs mit Ihren gewünschten Spezifikationen aufruft.