As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Saiba mais sobre casos de uso de diferentes métodos de inferência de modelos
É possível executar a inferência de modelos diretamente das seguintes maneiras:
| Método | Caso de uso |
|---|---|
| Playgrounds do console Amazon Bedrock | Execute inferência em uma interface gráfica fácil de usar. Conveniente para exploração. |
| Converse ou ConverseStream | Implemente aplicativos de conversação com uma API unificada para entrada de modelos. |
| InvokeModel ou InvokeModelWithResponseStream | Envie uma única solicitação e gere uma resposta de forma síncrona. Útil para gerar respostas em tempo real ou para consultas de pesquisa. |
| StartAsyncInvoke | Envie uma única solicitação e gere uma resposta de forma assíncrona. Útil para gerar respostas em grande escala. |
| CreateModelInvocationJob | Prepare um conjunto de dados de solicitações e gere respostas em lotes. |
Os seguintes recursos do Amazon Bedrock também usam a inferência de modelos como uma etapa em um fluxo de trabalho maior:
-
A avaliação do modelo usa o processo de invocação do modelo para avaliar o desempenho de diferentes modelos após o envio de uma CreateEvaluationJobsolicitação.
-
As bases de conhecimento usam a invocação do modelo ao usar a API RetrieveAndGenerate para gerar uma resposta com base nos resultados recuperados de uma base de conhecimento.
-
Os agentes usam a invocação do modelo para gerar respostas em vários estágios durante uma solicitação InvokeAgent.
-
Os fluxos incluem recursos do Amazon Bedrock, como prompts, bases de conhecimento e agentes, que usam invocação de modelo.
Depois de testar diferentes modelos básicos com diferentes prompts e parâmetros de inferência, você pode configurar seu aplicativo para chamá-los APIs com as especificações desejadas.