

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Obtenga información sobre los casos de uso de diferentes métodos de inferencia de modelos
<a name="inference-methods"></a>

Puede ejecutar directamente la inferencia de modelos de las siguientes maneras:


****  

| Método | Caso de uso | 
| --- | --- | 
| [Sitios de prueba de la consola de Amazon Bedrock](playgrounds.md) | Ejecutar inferencias en una interfaz gráfica intuitiva. Práctico para la exploración. | 
| [Conversar o [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) | Implementar aplicaciones conversacionales con una API unificada para la entrada del modelo. | 
| [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) o [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) | Enviar una única petición y generar una respuesta sincrónica. Útil para generar respuestas en tiempo real o para consultas de búsqueda. | 
| [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html) | Enviar una única petición y generar una respuesta asincrónica. Útil para generar respuestas a gran escala. | 
| [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html) | Preparar un conjunto de datos de peticiones y generar respuestas en lotes. | 
| [API de respuestas](https://platform.openai.com/docs/api-reference/responses) | Usa la API de respuestas para aplicaciones de agencia modernas que requieren el uso de herramientas integradas (búsqueda, intérprete de código), entradas multimodales y conversaciones con estado. | 
| [Finalización del chat](https://platform.openai.com/docs/api-reference/chat) | Usa la API Chat Completions para realizar tareas livianas, sin estado y centradas en texto, en las que necesites tener un control total sobre la administración del historial de chats y reducir la latencia. | 

Las siguientes características de Amazon Bedrock también utilizan la inferencia de modelos como un paso en un flujo de trabajo más amplio:
+ La [evaluación de modelos](evaluation.md) utiliza el proceso de invocación de modelos para evaluar el rendimiento de los distintos modelos después de enviar una solicitud. [CreateEvaluationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateEvaluationJob.html)
+ Las [bases de conocimientos](knowledge-base.md) utilizan la invocación de modelos al utilizar la API de [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) para generar una respuesta basada en los resultados obtenidos de una base de conocimientos.
+ Los [agentes](agents.md) utilizan la invocación de modelos para generar respuestas en varias etapas durante una solicitud de [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html).
+ Los [flujos](flows.md) incluyen recursos de Amazon Bedrock, como peticiones, bases de conocimiento y agentes, que utilizan la invocación de modelos.

Tras probar distintos modelos básicos con distintas indicaciones y parámetros de inferencia, puede configurar su aplicación para que los utilice APIs con las especificaciones que desee.