

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Perfis de inferência de aplicações
<a name="cost-mgmt-application-inference-profiles"></a>

Os perfis de inferência de aplicativos (AIPs) permitem que você atribua os custos do Amazon Bedrock por aplicativo, equipe ou carga de trabalho para o Amazon Bedrock [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)e o [ APIs Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) no endpoint. `bedrock-runtime` Cada AIP é específica do modelo e carrega etiquetas de alocação de custos que fluem para o Cost Explorer e os AWS Cost and Usage Reports ( AWS CUR 2.0).

Para cargas de trabalho que usam respostas e conclusões de bate-papo no `bedrock-mantle` endpoint, use em vez disso. [Projetos](cost-mgmt-projects.md)

## Como funciona a atribuição de custos
<a name="cost-mgmt-aip-how-it-works"></a>

Um perfil de inferência de aplicativo é um recurso que faz referência a um modelo específico do Amazon Bedrock. Você cria o perfil, anexa etiquetas de alocação de custos e usa o ARN do perfil no lugar do ID do modelo em suas chamadas de API. As tags do perfil são anexadas ao registro de faturamento de cada solicitação.

O exemplo a seguir mostra como usar o ARN de um perfil de inferência de aplicativo em vez de um ID de modelo ao chamar a API Converse:

```
import boto3

client = boto3.client("bedrock-runtime")

response = client.converse(
    modelId="arn:aws:bedrock:us-east-1:123456789012:inference-profile/my-team-profile",
    messages=[
        {"role": "user", "content": [{"text": "Hello"}]}
    ]
)
```

Para obter mais informações sobre a criação de perfis, consulte[Criar um perfil de inferência de aplicação](inference-profiles-create.md).

## Visualizando os custos do perfil
<a name="cost-mgmt-aip-viewing-costs"></a>

Depois de criar e marcar seus perfis, ative as tags como tags de alocação de custos no console AWS Billing and Cost Management:

1. Abra o console AWS Billing and Cost Management.

1. No painel de navegação, escolha **Cost Allocation Tags** (Tags de alocação de custo).

1. Selecione as tags que você aplicou aos seus perfis.

1. Selecione **Ativar**.

As tags podem levar até 24 horas para aparecer no Cost Explorer e no CUR após a ativação. As etiquetas de alocação de custos não são retroativas. Somente os custos incorridos após a ativação são marcados. Para obter mais informações, consulte [Ativação de tags de alocação de custos definidas pelo usuário](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/activating-tags.html).

Após a ativação da tag, você pode analisar os custos do Amazon Bedrock por perfil de inferência do aplicativo nas seguintes ferramentas:
+ **AWS Cost Explorer** — Filtre por tags de perfil para ver as tendências de custo ao longo do tempo. Agrupe por tag para comparar os custos entre os perfis.
+ **AWS Relatórios de custo e uso (CUR 2.0)** — Consulte dados CUR para obter detalhamentos de custos de itens de linha por etiqueta de perfil.

## Considerações sobre dimensionamento
<a name="cost-mgmt-aip-scaling"></a>

Cada perfil de inferência de aplicativo está vinculado a um modelo específico. Isso significa que você precisa de um perfil separado para cada combinação exclusiva de modelo, equipe e conjunto de tags. À medida que as organizações crescem, a contagem de perfis pode aumentar rapidamente, especialmente quando novas versões de modelos exigem novos perfis.

Para reduzir a proliferação de perfis:
+ **Recomendado:** use [Projetos](cost-mgmt-projects.md) para flexibilidade e facilidade no controle de custos.
+ Marque no nível da equipe ou do centro de custos, em vez de por usuário.
+ Para atribuição de custo por usuário sem criar perfis adicionais, use. [Atribuição principal do IAM](cost-mgmt-iam-principal-tracking.md) O rastreamento principal do IAM funciona automaticamente junto com os perfis de inferência do aplicativo e atribui os custos no nível da identidade.