Saiba mais sobre os casos de uso para diferentes métodos de inferência do modelo. - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Saiba mais sobre os casos de uso para diferentes métodos de inferência do modelo.

É possível executar a inferência de modelos diretamente das seguintes maneiras:

Método Caso de uso
Playgrounds do console do Amazon Bedrock Execute inferências em uma interface gráfica fácil de usar. Conveniente para exploração.
Converse ou ConverseStream Implemente aplicações conversacionais com uma API unificada para entrada de modelo.
InvokeModel ou InvokeModelWithResponseStream Envie um único prompt e gere uma resposta de forma síncrona. Útil para gerar respostas em tempo real ou para consultas de pesquisa.
StartAsyncInvoke Envie um único prompt e gere uma resposta de forma assíncrona. Útil para gerar respostas em grande escala.
CreateModelInvocationJob Prepare um conjunto de dados de prompts e gere respostas em lote.

Os seguintes recursos do Amazon Bedrock também usam a inferência de modelos como uma etapa em um fluxo de trabalho maior:

  • A avaliação de modelo usa o processo de invocação do modelo para avaliar a performance de diferentes modelos depois de você enviar uma solicitação CreateEvaluationJob.

  • As bases de conhecimento usam a invocação do modelo ao usar a API RetrieveAndGenerate para gerar uma resposta com base nos resultados recuperados de uma base de conhecimento.

  • Os agentes usam a invocação do modelo para gerar respostas em vários estágios durante uma solicitação InvokeAgent.

  • Os fluxos incluem recursos do Amazon Bedrock, como prompts, bases de conhecimento e agentes, que usam a invocação de modelo.

Depois de experimentar diferentes modelos de base com diferentes prompts e parâmetros de inferência, é possível configurar a aplicação para chamar essas APIs com as especificações desejadas.