

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Duração do relatório de execução e unidades de inferência usadas
<a name="rm-model-usage"></a>

Se você treinou e iniciou seu modelo depois de agosto de 2022, pode usar a CloudWatch métrica da `InServiceInferenceUnits` Amazon para determinar por quantas horas um modelo foi executado e o número de [unidades de inferência](running-model.md#running-model-inference-units) usadas durante essas horas.

**nota**  
Se você tiver apenas um modelo em uma AWS região, também poderá obter o tempo de execução do modelo rastreando chamadas bem-sucedidas de entrada `StartprojectVersion` e `StopProjectVersion` entrada CloudWatch. Essa abordagem não funciona se você executar mais de um modelo na AWS região, pois as métricas não incluem informações sobre o modelo.  
Como alternativa, você pode usar AWS CloudTrail para rastrear chamadas para `StartProjectVersion` e `StopProjectVersion` (o que inclui o ARN do modelo no `requestParameters` campo do [histórico de eventos](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html?icmpid=docs_console_unmapped)). CloudTrail os eventos são limitados a 90 dias, mas você pode armazenar eventos por até 7 anos em um [CloudTraillago](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-lake.html).

O procedimento a seguir cria gráficos para o seguinte:
+ O número de horas em que um modelo foi executado.
+ O número de unidades de inferência que um modelo usou.

É possível escolher um período de até 15 meses no passado. Para obter mais informações sobre a retenção de métricas, consulte [Retenção de métricas](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch_concepts.html#metrics-retention). 

**Para determinar a duração do modelo e as unidades de inferência usadas para um modelo**

1. Faça login no Console de gerenciamento da AWS e abra o CloudWatch console em [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/).

1. No painel de navegação esquerdo, escolha **Todas as métricas** em **Métricas**.

1. No painel inferior, escolha a guia **Origem**.

1. Certifique-se de que o botão **Painel** está selecionado.

1. Na caixa de edição, substitua o JSON existente pelo JSON a seguir. Altere os seguintes valores:
   + `Project_Name`: o projeto que contém o modelo que você deseja representar graficamente.
   + `Version_Name`: a versão do modelo que você deseja representar graficamente.
   + `AWS_Region`— A AWS região que contém o modelo. Verifique se o CloudWatch console está na mesma AWS região, verificando o seletor de região na barra de navegação na parte superior da página. Atualize conforme for necessário.

   ```
   {
       "sparkline": true,
       "metrics": [
           [
               {
                   "expression": "SUM(m1)*m1",
                   "label": "Inference units used",
                   "id": "e1"
               }
           ],
           [
               {
                   "expression": "DATAPOINT_COUNT(m1)*m1/m1",
                   "label": "Hours running",
                   "id": "e2"
               }
           ],
           [
               "AWS/Rekognition",
               "InServiceInferenceUnits",
               "ProjectName",
               "Project_Name",
               "VersionName",
               "Version_Name",
               {
                   "id": "m1",
                   "visible": false
               }
           ]
       ],
       "view": "singleValue",
       "stacked": false,
       "region": "AWS_Region",
       "stat": "Average",
       "period": 3600,
       "title": "Hours run and inference units used"
   }
   ```

1. Selecione **Atualizar**.

1. Na parte superior da página, escolha uma linha do tempo. É preciso ver os números das unidades de inferência usadas e as horas de execução durante a linha do tempo. As lacunas no gráfico indicam momentos em que o modelo não estava em execução. A captura de tela do console abaixo mostra as unidades de inferência usadas e as horas de execução ao longo de períodos, com um tempo personalizado de 2 semanas definido e os valores mais altos de 214 unidades de inferência e 209 horas de execução.  
![\[Gráfico mostrando as unidades de inferência.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/customlabels-dg/images/model-duration.png)

1. (Opcional) Adicione o gráfico a um painel, selecione **Ações** e **Adicionar ao painel: aprimorado**.