As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Saiba mais sobre os casos de uso para diferentes métodos de inferência do modelo.
É possível executar a inferência de modelos diretamente das seguintes maneiras:
| Método | Caso de uso |
|---|---|
| Playgrounds do console do Amazon Bedrock | Execute inferências em uma interface gráfica fácil de usar. Conveniente para exploração. |
| Converse ou ConverseStream | Implemente aplicações conversacionais com uma API unificada para entrada de modelo. |
| InvokeModel ou InvokeModelWithResponseStream | Envie um único prompt e gere uma resposta de forma síncrona. Útil para gerar respostas em tempo real ou para consultas de pesquisa. |
| StartAsyncInvoke | Envie um único prompt e gere uma resposta de forma assíncrona. Útil para gerar respostas em grande escala. |
| CreateModelInvocationJob | Prepare um conjunto de dados de prompts e gere respostas em lote. |
| API de respostas |
Use a API de respostas para aplicativos modernos e agentes que exigem o uso de ferramentas integradas (pesquisa, interpretador de código), entradas multimodais e conversas com estado. |
| Conclusões de bate-papo |
Use a API Chat Completions para tarefas leves, sem estado e focadas em texto, nas quais você precisa de controle total sobre o gerenciamento do histórico de bate-papo e menor latência. |
Os seguintes recursos do Amazon Bedrock também usam a inferência de modelos como uma etapa em um fluxo de trabalho maior:
-
A avaliação do modelo usa o processo de invocação do modelo para avaliar o desempenho de diferentes modelos após o envio de uma CreateEvaluationJobsolicitação.
-
As bases de conhecimento usam a invocação do modelo ao usar a API RetrieveAndGenerate para gerar uma resposta com base nos resultados recuperados de uma base de conhecimento.
-
Os agentes usam a invocação do modelo para gerar respostas em vários estágios durante uma solicitação InvokeAgent.
-
Os fluxos incluem recursos do Amazon Bedrock, como prompts, bases de conhecimento e agentes, que usam a invocação de modelo.
Depois de testar diferentes modelos básicos com diferentes prompts e parâmetros de inferência, você pode configurar seu aplicativo para chamá-los APIs com as especificações desejadas.