

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Saiba mais sobre os casos de uso para diferentes métodos de inferência do modelo.
<a name="inference-methods"></a>

É possível executar a inferência de modelos diretamente das seguintes maneiras:


****  

| Método | Caso de uso | 
| --- | --- | 
| [Playgrounds do console do Amazon Bedrock](playgrounds.md) | Execute inferências em uma interface gráfica fácil de usar. Conveniente para exploração. | 
| [Converse ou [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) | Implemente aplicações conversacionais com uma API unificada para entrada de modelo. | 
| [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) ou [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) | Envie um único prompt e gere uma resposta de forma síncrona. Útil para gerar respostas em tempo real ou para consultas de pesquisa. | 
| [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html) | Envie um único prompt e gere uma resposta de forma assíncrona. Útil para gerar respostas em grande escala. | 
| [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html) | Prepare um conjunto de dados de prompts e gere respostas em lote. | 
| [API de respostas](https://platform.openai.com/docs/api-reference/responses) | Use a API de respostas para aplicativos modernos e agentes que exigem o uso de ferramentas integradas (pesquisa, interpretador de código), entradas multimodais e conversas com estado. | 
| [Conclusões de bate-papo](https://platform.openai.com/docs/api-reference/chat) | Use a API Chat Completions para tarefas leves, sem estado e focadas em texto, nas quais você precisa de controle total sobre o gerenciamento do histórico de bate-papo e menor latência. | 

Os seguintes recursos do Amazon Bedrock também usam a inferência de modelos como uma etapa em um fluxo de trabalho maior:
+ A [avaliação do modelo](evaluation.md) usa o processo de invocação do modelo para avaliar o desempenho de diferentes modelos após o envio de uma [CreateEvaluationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateEvaluationJob.html)solicitação.
+ As [bases de conhecimento](knowledge-base.md) usam a invocação do modelo ao usar a API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) para gerar uma resposta com base nos resultados recuperados de uma base de conhecimento.
+ Os [agentes](agents.md) usam a invocação do modelo para gerar respostas em vários estágios durante uma solicitação [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html).
+ Os [fluxos](flows.md) incluem recursos do Amazon Bedrock, como prompts, bases de conhecimento e agentes, que usam a invocação de modelo.

Depois de testar diferentes modelos básicos com diferentes prompts e parâmetros de inferência, você pode configurar seu aplicativo para chamá-los APIs com as especificações desejadas.