Configurar um recurso de invocação de modelo usando perfis de inferência - Amazon Bedrock

Configurar um recurso de invocação de modelo usando perfis de inferência

Perfis de inferência são um recurso no Amazon Bedrock que define um modelo e uma ou mais regiões para as quais o perfil de inferência pode encaminhar solicitações de invocação de modelo. Você pode usar perfis de inferência para as seguintes tarefas:

  • Monitorar métricas de uso: configure logs do CloudWatch e envie solicitações de invocação de modelo com um perfil de inferência de aplicação para coletar métricas de uso para invocação de modelo. Você pode examinar essas métricas ao visualizar informações sobre o perfil de inferência e usá-las para fundamentar suas decisões. Para ter mais informações sobre como configurar logs do CloudWatch, consulte Monitorar a invocação do modelo usando o CloudWatch Logs e o Amazon S3.

  • Usar tags para monitorar custos: anexe tags a um perfil de inferência de aplicação para rastrear os custos ao enviar solicitações de invocação de modelo sob demanda. Para ter mais informações sobre como usar tags para alocação de custos, consulte Organizar e rastrear custos usando tags de alocação de custos da AWS no “Guia do usuário do AWS Billing”.

  • Inferência entre regiões: aumente o throughput usando um perfil de inferência que inclua várias Regiões da AWS. O perfil de inferência distribuirá as solicitações de invocação do modelo nessas regiões para aumentar o throughput e o desempenho. Para ter mais informações sobre inferência entre regiões, consulte Aumentar o throughput com inferência entre regiões.

O Amazon Bedrock oferece os seguintes tipos de perfil de inferência:

  • Perfis de inferência entre regiões (definidos pelo sistema): perfis de inferência predefinidos no Amazon Bedrock que incluem várias regiões para às quais as solicitações de um modelo podem ser encaminhadas.

  • Perfis de inferência de aplicação: perfis de inferência que um usuário cria para monitorar custos e usar modelos. É possível criar um perfil de inferência que roteie as solicitações de invocação de modelo para uma ou várias regiões:

    • Para criar um perfil de inferência que rastreie os custos e o uso de um modelo em uma região, especifique o modelo de base na região para a qual você deseja que o perfil de inferência encaminhe as solicitações.

    • Para criar um perfil de inferência que rastreie os custos e o uso de um modelo em várias regiões, especifique o perfil de inferência entre regiões (definido pelo sistema) que defina o modelo e as regiões para as quais você deseja que o perfil de inferência encaminhe as solicitações.

É possível usar perfis de inferência com os seguintes recursos para encaminhar solicitações a várias regiões e monitorar o uso e o custo das solicitações de invocação feitas com esses recursos:

O preço de uso de um perfil de inferência é calculado com base no preço do modelo na região na qual você chama o perfil de inferência. Para obter mais informações sobre preços, consulte Preços do Amazon Bedrock.

Para obter mais detalhes sobre o throughput que um perfil de inferência entre regiões pode oferecer, consulte Aumentar o throughput com inferência entre regiões.