

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verarbeiten mehrerer Prompts mit der Batch-Inferenz
<a name="batch-inference"></a>

Mit der Batch-Inferenz können Sie mehrere Prompts übermitteln und Antworten asynchron generieren. Sie können Ihre Eingabedaten entweder mit dem `InvokeModel` oder `Converse` dem API-Format formatieren. Die Batch-Inferenz hilft Ihnen, eine große Anzahl von Anforderungen effizient zu verarbeiten, indem nur eine einzige Anforderung gesendet und die Antworten in einem Amazon-S3-Bucket generiert werden. Nachdem Sie Modelleingaben in von Ihnen erstellten Dateien definiert haben, laden Sie die Dateien in einen S3-Bucket hoch. Anschließend übermitteln Sie eine Batch-Inferenzanforderung und geben den S3-Bucket an. Nachdem der Auftrag abgeschlossen ist, können Sie die Ausgabedateien von S3 abrufen. Sie können Batch-Inferenz verwenden, um die Leistung der Modellinferenz bei großen Datensätzen zu verbessern.

**Anmerkung**  
Die Batch-Inferenz wird für bereitgestellte Modelle nicht unterstützt.

Allgemeine Informationen zur Batch-Inferenz finden Sie in den folgenden Ressourcen:
+ Die Preise für die Batch-Inferenz finden Sie unter [Amazon Bedrock – Preise](https://aws.amazon.com/bedrock/pricing/).
+ Informationen zu den Batch-Inferenz-Kontingenten finden Sie unter [Endpunkte und Kontingente von Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in der Allgemeine AWS-Referenz
+ Informationen dazu, wie Sie Benachrichtigungen erhalten, wenn Batch-Inferenzjobs abgeschlossen sind oder ihren Status ändern, anstatt sie abzufragen, finden Sie unter. [Überwachen Sie Änderungen des Jobstatus von Amazon Bedrock mithilfe von Amazon EventBridgeÜberwachen Sie die Änderungen der Ereignisse](monitoring-eventbridge.md)

**Topics**
+ [Unterstützte Regionen und Modelle für die Batch-Inferenz](batch-inference-supported.md)
+ [Voraussetzungen für eine Batch-Inferenz](batch-inference-prereq.md)
+ [Erstellen eines Batch-Inferenzauftrags](batch-inference-create.md)
+ [Überwachen von Batch-Inferenzaufträgen](batch-inference-monitor.md)
+ [Stoppen eines Batch-Inferenzauftrags](batch-inference-stop.md)
+ [Anzeigen der Ergebnisse eines Batch-Inferenzauftrags](batch-inference-results.md)
+ [Batch-Inferenz – Codebeispiel](batch-inference-example.md)
+ [Senden Sie eine Stapel von Prompts mit der OpenAI-Batch-API](inference-openai-batch.md)