

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erstellen eines Batch-Inferenzauftrags
<a name="batch-inference-create"></a>

Nachdem Sie einen Amazon-S3-Bucket mit Dateien für die Ausführung der Modellinferenz eingerichtet haben, können Sie einen Batch-Inferenzauftrag erstellen. Vergewissern Sie sich, dass Sie die Dateien gemäß den unter [Formatieren und Hochladen Ihrer Batch-Inferenzdaten](batch-inference-data.md) beschriebenen Anleitungen eingerichtet haben, bevor Sie beginnen.

**Anmerkung**  
Zum Übermitteln eines Batch-Inferenzauftrags mit einer VPC müssen Sie die API verwenden. Wählen Sie die Registerkarte „API“ aus, um zu erfahren, wie Sie die VPC-Konfiguration einbeziehen.

Um zu erfahren, wie Sie einen Batch-Inferenzauftrag erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode aus und folgen dann den Schritten:

------
#### [ Console ]

**So erstellen Sie einen Batch-Inferenzauftrag**

1. Melden Sie sich bei der AWS-Managementkonsole mit einer IAM-Identität an, die berechtigt ist, die Amazon Bedrock-Konsole zu verwenden. Öffnen Sie dann die Amazon Bedrock-Konsole unter [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Wählen Sie im linken Navigationsbereich **Batch-Inferenz** aus.

1. Wählen Sie im Abschnitt **Batch-Inferenzaufträge** die Option **Auftrag erstellen** aus.

1. Geben Sie im Abschnitt **Auftragsdetails** dem Batch-Inferenzauftrag einen **Auftragsnamen** und wählen Sie das Modell aus, das für den Batch-Inferenzauftrag verwendet werden soll, indem Sie auf **Model auswählen** klicken.

1. Wählen Sie im Abschnitt **Modellaufruftyp** das API-Format für Ihre Eingabedaten aus. Wählen Sie aus, **InvokeModel**ob Ihre Eingabedaten modellspezifische Anforderungsformate verwenden, oder wählen Sie **Converse, wenn Ihre Eingabedaten das Converse-API-Format** verwenden. Der Standardwert ist **InvokeModel**.

1. Wählen Sie im Abschnitt **Eingabedaten** die Option **S3 durchsuchen** sowie einen S3-Speicherort für Ihren Batch-Inferenzauftrag aus. Die Batch-Inferenz verarbeitet alle JSONL- und zugehörigen Inhaltsdateien an diesem S3-Speicherort, unabhängig davon, ob es sich bei dem Speicherort um einen S3-Ordner oder eine einzelne JSONL-Datei handelt.
**Anmerkung**  
Wenn sich die Eingabedaten in einem S3-Bucket befinden, der zu einem anderen Konto gehört als dem, von dem aus Sie den Auftrag übermitteln, müssen Sie die API zum Senden des Batch-Inferenzauftrags verwenden. Weitere Informationen zur Vorgehensweise finden Sie auf der Registerkarte „API“ oben.

1. Wählen Sie im Abschnitt **Ausgabedaten** die Option **S3 durchsuchen** und wählen Sie einen S3-Speicherort aus, an dem die Ausgabedateien Ihres Batch-Inferenzjobs gespeichert werden sollen. Standardmäßig werden die Ausgabedaten mit einem Von AWS verwalteter Schlüssel verschlüsselt. Zum Auswählen eines benutzerdefinierten KMS-Schlüssels wählen Sie zunächst **Anpassen der Verschlüsselungseinstellungen (erweitert)** und dann einen Schlüssel aus. Weitere Informationen zur Verschlüsselung von Amazon-Bedrock-Ressourcen und zur Einrichtung eines benutzerdefinierten KMS-Schlüssels finden Sie unter [Datenverschlüsselung](data-encryption.md).
**Anmerkung**  
Wenn Sie beabsichtigen, die Ausgabedaten in einen S3-Bucket zu schreiben, der zu einem anderen Konto gehört als dem, von dem aus Sie den Auftrag übermitteln, müssen Sie den Batch-Inferenzauftrag mit der API senden. Weitere Informationen zur Vorgehensweise finden Sie auf der Registerkarte „API“ oben.

1. Wählen Sie im Abschnitt **Servicezugriff** eine der folgenden Optionen aus:
   + **Eine vorhandene Servicerolle verwenden** – Wählen Sie eine Servicerolle aus der Dropdown-Liste aus. Weitere Informationen zum Einrichten einer benutzerdefinierten Rolle mit den entsprechenden Berechtigungen finden Sie unter [Erforderliche Berechtigungen für eine Batch-Inferenz](batch-inference-permissions.md).
   + **Neue Servicerolle erstellen und verwenden** – Geben Sie einen Namen für die Servicerolle ein.

1. (Optional) Um dem Batch-Inferenzauftrag Tags zuzuweisen, erweitern Sie den Abschnitt **Tags** und fügen für jedes Tag einen Schlüssel und einen optionalen Wert hinzu. Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md).

1. Wählen Sie **Create batch inference job (Batch-Inferenzauftrag erstellen)**.

------
#### [ API ]

Um einen Batch-Inferenzjob zu erstellen, senden Sie eine [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)Anfrage mit einem Endpunkt der [Amazon Bedrock-Steuerebene](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Die folgenden Felder sind erforderlich:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| jobName | Zum Angeben eines Namens für den Auftrag | 
| roleArn | Zum Angeben des Amazon-Ressourcennamens (ARN) der Servicerolle mit Berechtigungen zum Erstellen und Verwalten des Auftrags Weitere Informationen finden Sie unter [Erstellen eine benutzerdefinierten Servicerolle für die Batch-Inferenz](batch-iam-sr.md). | 
| modelId | Zum Angeben der ID oder des ARN des Modells, das in der Inferenz verwendet wird | 
| inputDataConfig | Zum Angeben des S3-Speicherorts, der die Eingabedaten enthält Die Batch-Inferenz verarbeitet alle JSONL- und zugehörigen Inhaltsdateien an diesem S3-Speicherort, unabhängig davon, ob es sich bei dem Speicherort um einen S3-Ordner oder eine einzelne JSONL-Datei handelt. Weitere Informationen finden Sie unter [Formatieren und Hochladen Ihrer Batch-Inferenzdaten](batch-inference-data.md). | 
| outputDataConfig | Zum Angeben des S3-Speicherorts, in den die Modellantworten geschrieben werden sollen | 

Die folgenden Felder sind optional:


****  

| Feld | Anwendungsfall | 
| --- | --- | 
| modelInvocationType | Um das API-Format der Eingabedaten anzugeben. Stellen Sie diese Converse Option ein, um das Converse API-Format zu verwenden, oder InvokeModel (Standard), um modellspezifische Anforderungsformate zu verwenden. [Weitere Informationen zum Converse-Anforderungsformat finden Sie unter Converse.](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) | 
| timeoutDurationInStunden | Zum Angeben der Dauer in Stunden, nach der der Auftrag abgelaufen ist | 
| tags | Zum Angeben aller Tags, die dem Auftrag zugewiesen werden sollen Weitere Informationen finden Sie unter [Markieren von Amazon-Bedrock-Ressourcen](tagging.md). | 
| vpcConfig | Zum Angeben der VPC-Konfiguration, die zum Schutz Ihrer Daten während des Auftrags verwendet werden soll Weitere Informationen finden Sie unter [Schützen von Batch-Inferenzaufträgen mit einer VPC](batch-vpc.md). | 
| clientRequestToken | Zur Sicherstellung, dass die API-Anfrage nur einmal durchgeführt wird. Weitere Informationen finden Sie unter [Sicherstellen von Idempotenz](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Die Antwort gibt einen `jobArn` zurück, den Sie verwenden können, um auf den Auftrag zu verweisen, wenn Sie andere Batch-Inferenz-bezogene API-Aufrufe durchführen.

------