

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Elaborazione di più prompt con l’inferenza in batch
<a name="batch-inference"></a>

L’inferenza in batch consente di inviare più richieste e generare risposte in modo asincrono. Puoi formattare i dati di input utilizzando il formato o l'API. `InvokeModel` `Converse` Aiuta inoltre a elaborare con efficienza un gran numero di richieste, inviando una singola richiesta e generando le risposte in un bucket Amazon S3. Dopo aver definito gli input del modello nei file creati, i file verranno caricati in un bucket S3. A questo punto, invia una richiesta di inferenza in batch e specifica il bucket S3. Al termine del processo, puoi recuperare i file di output da S3. Puoi utilizzare l'inferenza in batch per migliorare le prestazioni dell'inferenza del modello su set di dati di grandi dimensioni.

**Nota**  
L’inferenza in batch non è supportata per i modelli con provisioning.

Per informazioni generali sull'inferenza in batch, consultate le seguenti risorse:
+ Per verificare i costi dell’inferenza in batch, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).
+ Per visualizzare le quote per l’inferenza in batch, consulta [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in Riferimenti generali di AWS.
+ Per ricevere notifiche quando i lavori di inferenza in batch vengono completati o cambiano stato anziché eseguire il polling, consulta. [Monitora le modifiche allo stato dei job di Amazon Bedrock con Amazon EventBridgeMonitora le modifiche agli eventi](monitoring-eventbridge.md)

**Topics**
+ [Regioni e modelli supportati per l’inferenza in batch](batch-inference-supported.md)
+ [Prerequisiti per l’inferenza in batch](batch-inference-prereq.md)
+ [Creazione di un processo di inferenza in batch](batch-inference-create.md)
+ [Monitoraggio dei processi di inferenza in batch](batch-inference-monitor.md)
+ [Arresto di un processo di inferenza in batch](batch-inference-stop.md)
+ [Visualizzazione dei risultati di un processo di inferenza in batch](batch-inference-results.md)
+ [Esempio di codice per inferenza in batch](batch-inference-example.md)
+ [Invio di una serie di prompt con l’API batch di OpenAI](inference-openai-batch.md)