

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Hier erfahren Sie mehr über Anwendungsfälle für verschiedene Modellinferenzmethoden
<a name="inference-methods"></a>

Sie können Modellinferenzen direkt wie folgt ausführen:


****  

| Methode | Anwendungsfall | 
| --- | --- | 
| [Playgrounds in der Amazon-Bedrock-Konsole](playgrounds.md) | So führen Sie eine Inferenz in einer benutzerfreundlichen grafischen Benutzeroberfläche aus. Für Erkundungen geeignet. | 
| [Converse oder [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) | Implementieren Sie Konversationsanwendungen mit einer einheitlichen API für die Modelleingabe. | 
| [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) oder [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) | Senden Sie einen einzigen Prompt und generieren Sie synchron eine Antwort. Nützlich für die Generierung von Antworten in Echtzeit oder für Suchanfragen. | 
| [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html) | Senden Sie einen einzigen Prompt und generieren Sie asynchron eine Antwort. Nützlich für die Generierung umfänglicher Antworten. | 
| [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html) | Bereiten Sie einen Datensatz mit Prompts vor und generieren Sie Antworten stapelweise. | 
| [Antworten-API](https://platform.openai.com/docs/api-reference/responses) | Verwenden Sie die Responses API für moderne, agentische Anwendungen, die integrierte Tools (Suche, Codeinterpreter), multimodale Eingaben und statusbehaftete Konversationen erfordern. | 
| [Chat-Abschlüsse](https://platform.openai.com/docs/api-reference/chat) | Verwenden Sie die Chat-Completions-API für einfache, statuslose, textorientierte Aufgaben, bei denen Sie die volle Kontrolle über die Verwaltung des Chat-Verlaufs und eine geringere Latenz benötigen. | 

Die folgenden Features von Amazon Bedrock verwenden auch Modellinferenz als Schritt in einem größeren Workflow:
+ Die [Modellevaluierung](evaluation.md) verwendet den Modellaufrufprozess, um die Leistung verschiedener Modelle zu bewerten, nachdem Sie eine Anfrage eingereicht haben. [CreateEvaluationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateEvaluationJob.html)
+ [Wissensdatenbanken](knowledge-base.md) verwenden den Modellaufruf, wenn sie die [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)-API verwenden, um eine Antwort auf Grundlage von Ergebnissen zu generieren, die aus einer Wissensdatenbank abgerufen wurden.
+ [Agenten](agents.md) verwenden den Modellaufruf, um Antworten in verschiedenen Phasen einer [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html)-Anfrage zu generieren.
+ [Flows](flows.md) umfassen Amazon-Bedrock-Ressourcen wie Prompts, Wissensdatenbanken und Agenten, die den Modellaufruf verwenden.

Nachdem Sie verschiedene Basismodelle mit unterschiedlichen Eingabeaufforderungen und Inferenzparametern getestet haben, können Sie Ihre Anwendung so konfigurieren, dass sie diese APIs mit Ihren gewünschten Spezifikationen aufruft.