As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Saiba mais sobre os casos de uso para diferentes métodos de inferência do modelo.
É possível executar a inferência de modelos diretamente das seguintes maneiras:
| Método | Caso de uso |
|---|---|
| Playgrounds do console do Amazon Bedrock | Execute inferências em uma interface gráfica fácil de usar. Conveniente para exploração. |
| Converse ou ConverseStream | Implemente aplicações conversacionais com uma API unificada para entrada de modelo. |
| InvokeModel ou InvokeModelWithResponseStream | Envie um único prompt e gere uma resposta de forma síncrona. Útil para gerar respostas em tempo real ou para consultas de pesquisa. |
| StartAsyncInvoke | Envie um único prompt e gere uma resposta de forma assíncrona. Útil para gerar respostas em grande escala. |
| CreateModelInvocationJob | Prepare um conjunto de dados de prompts e gere respostas em lote. |
Os seguintes recursos do Amazon Bedrock também usam a inferência de modelos como uma etapa em um fluxo de trabalho maior:
-
A avaliação de modelo usa o processo de invocação do modelo para avaliar a performance de diferentes modelos depois de você enviar uma solicitação CreateEvaluationJob.
-
As bases de conhecimento usam a invocação do modelo ao usar a API RetrieveAndGenerate para gerar uma resposta com base nos resultados recuperados de uma base de conhecimento.
-
Os agentes usam a invocação do modelo para gerar respostas em vários estágios durante uma solicitação InvokeAgent.
-
Os fluxos incluem recursos do Amazon Bedrock, como prompts, bases de conhecimento e agentes, que usam a invocação de modelo.
Depois de experimentar diferentes modelos de base com diferentes prompts e parâmetros de inferência, é possível configurar a aplicação para chamar essas APIs com as especificações desejadas.