As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Criar um perfil de inferência de aplicação
É possível criar um perfil de inferência de aplicação com uma ou mais regiões para monitorar o uso e os custos ao invocar um modelo.
-
Para criar um perfil de inferência de aplicação para uma região, especifique um modelo de base. O uso e os custos das solicitações feitas para essa região com esse modelo serão rastreados.
-
Para criar um perfil de inferência de aplicação para várias regiões, especifique um perfil de inferência entre regiões (definido pelo sistema). O perfil de inferência roteará as solicitações para as regiões definidas no perfil de inferência entre regiões (definido pelo sistema) que você escolher. O uso e os custos das solicitações feitas às regiões no perfil de inferência serão monitorados.
No momento, só é possível criar um perfil de inferência usando a API do Amazon Bedrock.
Para criar um perfil de inferência, envie uma CreateInferenceProfilesolicitação com um endpoint do plano de controle Amazon Bedrock.
Os seguintes campos são obrigatórios:
| Campo | Caso de uso |
|---|---|
| inferenceProfileName | Para especificar um nome para o perfil de inferência. |
| modelSource | Para especificar o modelo de base ou o perfil de inferência entre regiões (definido pelo sistema) que define o modelo e as regiões para as quais você deseja rastrear custos e uso. |
Os seguintes campos são opcionais:
| Campo | Caso de uso |
|---|---|
| descrição | Para fornecer uma descrição do perfil de inferência. |
| tags | Para anexar tags ao perfil de inferência. Para obter mais informações, consulte Organização Marcação de recursos do Amazon Bedrock e controle de custos usando tags de alocação de AWS custos. |
| clientRequestToken | Para garantir que a solicitação de API seja concluída apenas uma vez. Para obter mais informações, consulte Ensuring idempotency. |
A resposta exibe um inferenceProfileArn, que pode ser usado em outras ações relacionadas ao perfil de inferência e com a invocação de modelo e os recursos do Amazon Bedrock.