Saiba mais sobre casos de uso de diferentes métodos de inferência de modelos - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Saiba mais sobre casos de uso de diferentes métodos de inferência de modelos

É possível executar a inferência de modelos diretamente das seguintes maneiras:

Método Caso de uso
Playgrounds do console Amazon Bedrock Execute inferência em uma interface gráfica fácil de usar. Conveniente para exploração.
Converse ou ConverseStream Implemente aplicativos de conversação com uma API unificada para entrada de modelos.
InvokeModel ou InvokeModelWithResponseStream Envie uma única solicitação e gere uma resposta de forma síncrona. Útil para gerar respostas em tempo real ou para consultas de pesquisa.
StartAsyncInvoke Envie uma única solicitação e gere uma resposta de forma assíncrona. Útil para gerar respostas em grande escala.
CreateModelInvocationJob Prepare um conjunto de dados de solicitações e gere respostas em lotes.

Os seguintes recursos do Amazon Bedrock também usam a inferência de modelos como uma etapa em um fluxo de trabalho maior:

  • A avaliação do modelo usa o processo de invocação do modelo para avaliar o desempenho de diferentes modelos após o envio de uma CreateEvaluationJobsolicitação.

  • As bases de conhecimento usam a invocação do modelo ao usar a API RetrieveAndGenerate para gerar uma resposta com base nos resultados recuperados de uma base de conhecimento.

  • Os agentes usam a invocação do modelo para gerar respostas em vários estágios durante uma solicitação InvokeAgent.

  • Os fluxos incluem recursos do Amazon Bedrock, como prompts, bases de conhecimento e agentes, que usam invocação de modelo.

Depois de testar diferentes modelos básicos com diferentes prompts e parâmetros de inferência, você pode configurar seu aplicativo para chamá-los APIs com as especificações desejadas.