

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Procesamiento de múltiples peticiones con la inferencia por lotes
<a name="batch-inference"></a>

La inferencia por lotes le permite enviar varias peticiones y generar respuestas de forma asíncrona. Puede formatear los datos de entrada mediante el formato o el formato API. `InvokeModel` `Converse` La inferencia por lotes le ayuda a procesar una gran cantidad de solicitudes de manera eficiente al enviar una sola solicitud y generar las respuestas en un bucket de Amazon S3. Una vez definidas las entradas del modelo en los archivos que cree, los archivos se cargan a un bucket de S3. A continuación, envía una solicitud de inferencia por lotes y especifica el bucket de S3. Una vez finalizado el trabajo, podrá recuperar los archivos de salida de S3. Puede utilizar la inferencia por lotes para mejorar el rendimiento de la inferencia de modelos en conjuntos de datos de gran tamaño.

**nota**  
Los modelos aprovisionados no admiten la inferencia por lotes.

Consulte los siguientes recursos para obtener información general sobre la inferencia por lotes:
+ Para ver los precios de la inferencia por lotes, consulte [Amazon Bedrock pricing](https://aws.amazon.com/bedrock/pricing/).
+ Para ver las cuotas de la inferencia por lotes, consulte [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) en la Referencia general de AWS.
+ Para recibir notificaciones cuando se completen los trabajos de inferencia por lotes o cambien de estado en lugar de realizar un sondeo, consulte. [Supervisa los cambios en el estado laboral de Amazon Bedrock con Amazon EventBridgeSupervisa los cambios en los eventos](monitoring-eventbridge.md)

**Topics**
+ [Regiones y modelos compatibles con la inferencia por lotes](batch-inference-supported.md)
+ [Requisitos previos para la inferencia por lotes](batch-inference-prereq.md)
+ [Crear un trabajo de inferencia por lotes](batch-inference-create.md)
+ [Supervisión de los trabajos de inferencia por lotes](batch-inference-monitor.md)
+ [Detención de un trabajo de inferencia por lotes](batch-inference-stop.md)
+ [Visualización de los resultados de un trabajo de inferencia por lotes](batch-inference-results.md)
+ [Ejemplos de código de inferencia en lotes](batch-inference-example.md)
+ [Envío de un lote de peticiones con la API Batch de OpenAI](inference-openai-batch.md)