Criar um perfil de inferência de aplicação - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Criar um perfil de inferência de aplicação

É possível criar um perfil de inferência de aplicação com uma ou mais regiões para monitorar o uso e os custos ao invocar um modelo.

  • Para criar um perfil de inferência de aplicação para uma região, especifique um modelo de base. O uso e os custos das solicitações feitas para essa região com esse modelo serão rastreados.

  • Para criar um perfil de inferência de aplicação para várias regiões, especifique um perfil de inferência entre regiões (definido pelo sistema). O perfil de inferência roteará as solicitações para as regiões definidas no perfil de inferência entre regiões (definido pelo sistema) que você escolher. O uso e os custos das solicitações feitas às regiões no perfil de inferência serão monitorados.

No momento, só é possível criar um perfil de inferência usando a API do Amazon Bedrock.

Para criar um perfil de inferência, envie uma CreateInferenceProfilesolicitação com um endpoint do plano de controle Amazon Bedrock.

Os seguintes campos são obrigatórios:

Campo Caso de uso
inferenceProfileName Para especificar um nome para o perfil de inferência.
modelSource Para especificar o modelo de base ou o perfil de inferência entre regiões (definido pelo sistema) que define o modelo e as regiões para as quais você deseja rastrear custos e uso.

Os seguintes campos são opcionais:

Campo Caso de uso
descrição Para fornecer uma descrição do perfil de inferência.
tags Para anexar tags ao perfil de inferência. Para obter mais informações, consulte Organização Marcação de recursos do Amazon Bedrock e controle de custos usando tags de alocação de AWS custos.
clientRequestToken Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte Ensuring idempotency.

A resposta exibe um inferenceProfileArn, que pode ser usado em outras ações relacionadas ao perfil de inferência e com a invocação de modelo e os recursos do Amazon Bedrock.