

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Gerenciar endpoints do Amazon Comprehend
<a name="manage-endpoints"></a>

No Amazon Comprehend, os endpoints disponibilizam seus modelos personalizados para classificação em tempo real ou detecção de entidades. Após criar um endpoint, você pode alterá-lo à medida que suas necessidades de negócios evoluem. Por exemplo, você pode monitorar a utilização do endpoint e aplicar o ajuste de escala automático para definir automaticamente o provisionamento de endpoints de acordo com suas necessidades de capacidade. Você pode gerenciar todos os seus endpoints a partir de uma única visualização e, quando não precisar mais de um endpoint, poderá excluí-lo para economizar custos. 

Antes de gerenciar um endpoint, você deve criar um. Para obter mais informações, consulte os procedimentos a seguir:
+ [Criar um endpoint para classificação personalizada](custom-sync.md#create-endpoint)
+ [Criação de um endpoint para detecção de entidades personalizadas](detecting-cer-real-time.md#detecting-cer-real-time-create-endpoint)

**Topics**
+ [Visão geral dos endpoints do Amazon Comprehend](manage-endpoints-overview.md)
+ [Utilizar endpoints do Amazon Comprehend](using-endpoints.md)
+ [Monitoramento de endpoints do Amazon Comprehend](manage-endpoints-monitor.md)
+ [Atualizando os endpoints do Amazon Comprehend](manage-endpoints-update.md)
+ [Usando Trusted Advisor com o Amazon Comprehend](manage-endpoints-trusted-advisor.md)
+ [Excluindo endpoints do Amazon Comprehend](manage-endpoints-delete.md)
+ [Ajuste de escala automático com endpoints](comprehend-autoscaling.md)

# Visão geral dos endpoints do Amazon Comprehend
<a name="manage-endpoints-overview"></a>

A página de endpoints do console do Amazon Comprehend fornece uma visão global dos seus endpoints. Na página de visão geral dos endpoints, você pode visualizar todos os seus endpoints em um só lugar para entender o uso do endpoint em comparação com o uso real dos recursos. No canto superior direito da página de endpoints, você pode especificar quais endpoints deseja visualizar: todos eles, endpoints de classificadores personalizados ou endpoints personalizados de sua entidade.

É possível criar, atualizar, monitorar e excluir endpoints nesta página. Na seção de visão geral dos endpoints, você pode ver uma lista de seus endpoints, quais modelos personalizados os endpoints estão hospedando, a hora de criação, a throughput provisionada e o status do endpoint. Quando você seleciona um endpoint específico na tabela de visão geral do endpoint, os detalhes do endpoint são exibidos. 

Além disso, se você for cliente do [AWS Business Support](https://aws.amazon.com/premiumsupport/plans/business/) ou do [AWS Enterprise Support](https://aws.amazon.com/premiumsupport/plans/enterprise/), você terá acesso às verificações do Trusted Advisor específicas para seus endpoints. Para saber mais, consulte [Usando Trusted Advisor com o Amazon Comprehend](manage-endpoints-trusted-advisor.md). Para obter uma lista completa de verificações e descrições, consulte as [Práticas recomendadas do Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/best-practice-checklist/).

Para obter mais informações sobre o gerenciamento de seus endpoints, consulte os seguintes tópicos. 
+ [Utilizar endpoints do Amazon Comprehend](using-endpoints.md)
+ [Monitoramento de endpoints do Amazon Comprehend](manage-endpoints-monitor.md)
+ [Atualizando os endpoints do Amazon Comprehend](manage-endpoints-update.md)
+ [Usando Trusted Advisor com o Amazon Comprehend](manage-endpoints-trusted-advisor.md)
+ [Excluindo endpoints do Amazon Comprehend](manage-endpoints-delete.md)

**Importante**  
O custo da classificação personalizada em tempo real é baseado tanto no throughput, quanto no período em que o endpoint está ativo. Se você não estiver mais usando o endpoint ou não o estiver usando por um longo período, configure uma políticas de ajuste de escala automático para reduzir seus custos. Ou, se você não estiver mais usando um endpoint, você poderá excluí-lo para evitar custos adicionais. Para obter mais informações, consulte [Ajuste de escala automático com endpoints](comprehend-autoscaling.md).

# Utilizar endpoints do Amazon Comprehend
<a name="using-endpoints"></a>

Você cria um endpoint para executar análises em tempo real usando um modelo de classificação personalizado. Um endpoint inclui recursos gerenciados que disponibilizam seu modelo personalizado para inferência em tempo real. 

O Amazon Comprehend atribui o throughput a um endpoint usando *unidades de inferência* (IU). Um IU representa um throughput de 100 caracteres por segundo. Você pode provisionar o endpoint com até 10 unidades de inferência. Você pode escalar ou diminuir o throughput do endpoint atualizando o endpoint. 

Se seus documentos de entrada incluírem documentos semiestruturados ou arquivos de imagem, o throughput de 100 caracteres por segundo é para os caracteres extraídos do arquivo de entrada. O número IUs que você provisiona para um endpoint depende da densidade de caracteres dos documentos de entrada.

 As respostas [ClassifyDocument](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ClassifyDocument.html)e [DetectEntities](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectEntities.html)da API incluem a contagem de caracteres para cada página de entrada. Você pode usar essas informações para estimar o número de unidades de inferência a serem provisionadas para alcançar o throughput desejado.

Depois de concluir sua análise em tempo real, exclua o endpoint porque a cobrança por ele continuará enquanto ele estiver ativo. Você pode criar outro endpoint quando estiver pronto para executar mais análises em tempo real.

Para obter mais informações sobre os custos dos endpoint, consulte [Preços do Amazon Comprehend](https://aws.amazon.com/comprehend/pricing/).

Depois de criar um endpoint, você pode monitorá-lo com a Amazon CloudWatch, atualizá-lo para alterar suas unidades de inferência ou excluí-lo quando não for mais necessário. Para obter mais informações, consulte [Monitoramento de endpoints do Amazon Comprehend](manage-endpoints-monitor.md).

# Monitoramento de endpoints do Amazon Comprehend
<a name="manage-endpoints-monitor"></a>

Você pode ajustar a taxa de transferência do seu endpoint aumentando ou diminuindo o número de unidades de inferência (). IUs Para obter mais informações sobre a atualização do seu endpoint, consulte [Atualizando os endpoints do Amazon Comprehend](manage-endpoints-update.md).

Você pode determinar a melhor forma de ajustar a taxa de transferência do seu endpoint monitorando seu uso com o console da Amazon CloudWatch .

**Monitore o uso do seu endpoint com CloudWatch**

1. Faça login no Console de gerenciamento da AWS e abra o [CloudWatch console](https://console.aws.amazon.com/cloudwatch/).

1. À esquerda, escolha **Métricas** e selecione **Todas as métricas**.

1. Em **Todas as métricas**, escolha **Comprehend**.  
![\[Exibição do console da página Métricas mostrando o painel Comprehend.\]](http://docs.aws.amazon.com/pt_br/comprehend/latest/dg/images/cloudwatch-metrics1.png)

1. O CloudWatch console exibe as dimensões das métricas do **Comprehend**. Escolha a **EndpointArn**dimensão.   
![\[Exibição do console da página de métricas do Amazon Comprehend mostrando a dimensão. EndpointArn\]](http://docs.aws.amazon.com/pt_br/comprehend/latest/dg/images/cloudwatch-metrics2.png)

   O console exibe **ProvisionedInferenceUnits**,, **RequestedInferenceUnits**ConsumedInferenceUnits****, e **InferenceUtilization**para cada um dos seus endpoints.  
![\[CloudWatch console mostrando as quatro métricas.\]](http://docs.aws.amazon.com/pt_br/comprehend/latest/dg/images/cloudwatch-metrics3.png)

   Selecione as quatro métricas e navegue até a guia **Métricas representadas graficamente**.

1. Defina as colunas de estatística para **RequestedInferenceUnits**e **ConsumedInferenceUnits**para **Soma**.

1. Defina a coluna Estatística **InferenceUtilization**para **Soma**.

1. Defina a coluna Estatística como **Média**. **ProvisionedInferenceUnits**

1. Altere a coluna Período de todas as métricas para **1 minuto**.

1. Selecione **InferenceUtilization**e selecione a seta para movê-la para um **eixo Y** separado.

   Seu gráfico está pronto para análise. 

     
![\[Tela do console mostrando as métricas representadas graficamente.\]](http://docs.aws.amazon.com/pt_br/comprehend/latest/dg/images/graphed_metrics_endpoint.png)

Com base nas CloudWatch métricas, você também pode configurar o escalonamento automático para ajustar automaticamente a taxa de transferência do seu endpoint. Para obter mais informações sobre como usar o ajuste de escala automático com os seus endpoints, consulte [Ajuste de escala automático com endpoints](comprehend-autoscaling.md). 


+ **ProvisionedInferenceUnits**- Essa métrica representa o número médio de provisionados IUs no momento em que a solicitação foi feita. 
+  **RequestedInferenceUnits**- Isso se baseia no uso de cada solicitação enviada ao serviço que foi enviada para ser processada. Isso pode ser útil para comparar a solicitação enviada para ser processada com a que foi realmente processada sem obter throttling ()ConsumedInferenceUnits. O valor dessa métrica é calculado tomando o número de caracteres enviados para serem processados e dividindo-o pelo número de caracteres que podem ser processados em um minuto por 1 UI. 
+ **ConsumedInferenceUnits**- Isso se baseia no uso de cada solicitação enviada ao serviço que foi processada com sucesso (não limitada). Isso pode ser útil quando você compara o que está consumindo com o provisionado IUs. O valor dessa métrica é calculado tomando-se o número de caracteres processados e dividindo-o pelo número de caracteres que podem ser processados em um minuto por 1 UI. 
+ **InferenceUtilization**- Isso é emitido por solicitação. Esse valor é calculado tomando o consumo IUs definido em **ConsumedInferenceUnits**, dividindo-o por **ProvisionedInferenceUnits**e convertendo em uma porcentagem de 100. 

**nota**  
 Todas as métricas são emitidas somente para solicitações bem-sucedidas. A métrica não aparecerá se for proveniente de uma solicitação que foi limitada ou falhou devido a um erro interno do servidor ou do cliente. 

# Atualizando os endpoints do Amazon Comprehend
<a name="manage-endpoints-update"></a>

Frequentemente, o nível de throughput que você precisa muda após a criação de um endpoint ou, então, a primeira estimativa de suas necessidades muda. Quando isso acontece, pode ser necessário atualizar seu endpoint para aumentar ou diminuir o throughput. O throughput é controlada pelo número de unidades de inferência com as quais você provisionou seu endpoint. Cada unidade de inferência representa um throughput de 100 caracteres por segundo para até dois documentos por segundo. Talvez você também queira atualizar a versão do modelo associada ao endpoint. Ao editar um endpoint, você pode escolher uma versão diferente do modelo para o endpoint.

Também pode ser útil adicionar tags ao seu endpoint para ajudar a mantê-los organizados. Isso também pode ser feito ao atualizar o endpoint. Para obter mais informações sobre endpoints, consulte [Marcando seus Recursos](tagging.md).

**Para atualizar um endpoint (console)**

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon Comprehend em [https://console.aws.amazon.com/comprehend/](https://console.aws.amazon.com/comprehend/)

1. No menu à esquerda, escolha **Endpoints**.

1. Na lista **Classificadores**, escolha o nome do modelo personalizado do qual você deseja atualizar o endpoint e siga o link. A página de detalhes do modelo é exibida.

1. Na página de detalhes do modelo, selecione os detalhes da versão. A lista de endpoints é exibida. 

1. Selecione a caixa de seleção do endpoint para seu endpoint. No canto superior direito da tabela de endpoints, selecione o ícone **Ações**.

1. Escolha **Editar**. Você pode atualizar as tags provisionadas IUs e editar. 

1. Salve as alterações.

1. Para editar o número de unidades de inferência com as quais o endpoint é provisionado, escolha **Editar**.

1. Insira o número atualizado de unidades de inferência a serem atribuídas ao endpoint. Cada unidade representa um throughput de 100 caracteres por segundo. Você pode atribuir até 10 unidades de inferência por endpoint no máximo. 
**nota**  
O custo do uso de um endpoint é baseado na quantidade de tempo da operação e de throughput (com base no número de unidades de inferência). Aumentar o número de unidades de inferência aumentará, portanto, o custo da operação. Para mais informações, consulte [Preços do Amazon Comprehend](https://aws.amazon.com/comprehend/pricing).

1. Escolha **Editar endpoint**. A página Detalhes do endpoint será exibida. 

1. Confirme se o endpoint está sendo atualizado escolhendo o nome do modelo nos rastros de navegação no topo da página. Na página de detalhes do modelo personalizado, navegue até a lista de **Endpoints** e verifique se ela mostra **Atualizando** ao lado do endpoint. Quando a atualização for concluída, ela mostrará **Pronto**.

   O exemplo a seguir demonstra o uso da *UpdateEndpoint*operação com a AWS CLI. 

   O exemplo é formatado para Unix, Linux e macOS. Para Windows, substitua o caractere de continuação Unix de barra invertida (\$1) no final de cada linha por um circunflexo (^).

   ```
   aws comprehend update-endpoint \
       --desired-inference-units updated number of inference units \
       --desired-model-arn arn:aws:comprehend:region:account-id:model type/model name \
       --desired-data-access-role-arn arn:aws:iam:account id:role/role name
       --endpoint-arn arn:aws:comprehend:region:account id:endpoint/endpoint name
   ```

   Se a ação for executada com êxito, o Amazon Comprehend responderá com uma resposta HTTP 200 com um corpo HTTP vazio.

1. Para editar o modelo personalizado anexado ao seu endpoint, na página de detalhes do modelo personalizado, navegue até a lista de **Endpoints**.

1. Selecione o endpoint que você deseja alterar e selecione **Editar**.

1. Na página de configurações do endpoint, em **Selecionar modelo do classificador** ou **Selecionar modelo do reconhecedor** dependendo do seu endpoint, você pode pesquisar um modelo no menu suspenso. Selecione o modelo que você quiser.

1. Em **Selecionar versão**, você pode pesquisar a versão do modelo que deseja. Selecione a versão.

1. Selecione **Editar endpoint** para salvar. 

# Usando Trusted Advisor com o Amazon Comprehend
<a name="manage-endpoints-trusted-advisor"></a>

AWS Trusted Advisor é uma ferramenta on-line que fornece recomendações para ajudá-lo a provisionar seus recursos seguindo as AWS melhores práticas.

Se você tiver um plano Basic ou Developer Support, poderá usar o Trusted Advisor console para acessar todas as verificações na categoria Limites de Serviço e seis verificações na categoria Segurança. Se você tiver um plano de suporte Business ou Enterprise, poderá usar o Trusted Advisor console e a [AWS Support API](https://docs.aws.amazon.com/awssupport/latest/user/Welcome.html) para acessar todas as Trusted Advisor verificações.

O Amazon Comprehend oferece suporte às Trusted Advisor seguintes verificações para ajudar os clientes a otimizar o custo e a segurança de seus endpoints do Amazon Comprehend, fornecendo recomendações práticas.

## Endpoints do Amazon Comprehend subutilizados
<a name="manage-endpoints-trusted-advisor-underutilized-endpoints"></a>

A verificação dos **endpoints subutilizados do Amazon Comprehend** avalia a configuração do throughput dos seus endpoints. Essa verificação alerta quando os endpoints não são usados ativamente para solicitações de inferência em tempo real. Um endpoint que não é usado por mais de 15 dias é considerado subutilizado. Todos os endpoints acumulam cobranças com base tanto no conjunto de throughput, quanto no período em que o endpoint está ativo. Para endpoints não usados nos últimos 15 dias, recomendamos definir uma política de escalabilidade para o recurso usando [Ajuste de escala automático para aplicativos](https://docs.aws.amazon.com/autoscaling/application/userguide/what-is-application-auto-scaling.html). Para um endpoint que não foi usado nos últimos 30 dias e tem uma política de ajuste de escala automático definida, recomendamos que você use inferência assíncrona ou a exclua. Esses resultados de verificação são atualizados automaticamente uma vez por dia e podem ser visualizados na **CostOptimization**categoria no Trusted Advisor console.

**Para visualizar o status de utilização de todos os seus endpoints e as recomendações correspondentes**

1. Faça login no Console de gerenciamento da AWS e abra o Trusted Advisor console.

1. No painel de navegação, escolha a categoria de **CostOptimization**verificação.

1. Na página de categoria, você pode visualizar o resumo de cada categoria de verificação:
   + **Ação recomendada (vermelho)** — Trusted Advisor recomenda uma ação para a verificação.
   + **Investigação recomendada (amarelo)** - Trusted Advisor detecta um possível problema para a verificação.
   + **Nenhum problema detectado (verde)** — Trusted Advisor não detecta um problema na verificação.
   + **Itens excluídos (cinza)**: O número de verificações que excluíram itens, como recursos que você deseja que uma verificação ignore.

1. Escolha a **verificação de endpoints subutilizados do Amazon Comprehend** para ver a descrição da verificação e os seguintes detalhes:
   + **Critérios de alerta**: descreve o limite quando uma verificação mudará o status.
   + **Recommended Action** (Ação recomendada) - Descreve as ações recomendadas para esta verificação.
   + **Tabela de recursos:** uma tabela que lista os detalhes do seu endpoint e o status de cada um com base em suas recomendações.

1. Na tabela de recursos, se um endpoint for sinalizado com uma **investigação recomendada** devido a um aviso de **não usado nos últimos 30 dias**, você poderá navegar até a página de detalhes do endpoint no console do Amazon Comprehend.
   + Se você não quiser mais usar esse endpoint, escolha **Excluir**.
   + Escolha **Excluir** para confirmar a exclusão. A página de detalhes do modelo personalizado é exibida. Confirme se o endpoint que você excluiu mostra **excluindo** ao lado dele. Depois de excluído, o endpoint é removido da lista de **Endpoints**. 

1. Na tabela de recursos no Trusted Advisor console, se um endpoint estiver marcado com o status **Investigation Recommended** porque não foi usado nos últimos 15 dias e se tiver sido AutoScaling desativado, você poderá navegar até a página de detalhes do endpoint no console do Amazon Comprehend para ajustar o endpoint.
   + Se você quiser reduzir o throughput configurado para esse endpoint, clique em **Editar** Insira o número atualizado de unidades de inferência a serem atribuídas ao endpoint, marque a caixa de seleção para confirmar e escolha **Editar Endpoint**. Quando a atualização for concluída, o status será exibido como **Pronto**. 
   + Se você quiser definir automaticamente o provisionamento de endpoints em seu endpoint em vez de ajustar manualmente a configuração da throughput, recomendamos usar o **ajuste de escala automático dos aplicativos**.

1. Na tabela de recursos no Trusted Advisor console, se um endpoint estiver marcado com o status **Sem problemas detectados** devido ao motivo **Usado ativamente**, isso significa que o endpoint está sendo utilizado ativamente para executar solicitações de inferência em tempo real e nenhuma ação é recomendada.

Aqui está um exemplo que mostra a visualização da CostOptimization categoria no Trusted Advisor console:

![\[Exemplo de saída das verificações de otimização de custos.\]](http://docs.aws.amazon.com/pt_br/comprehend/latest/dg/images/TA_cost_optimization_new.png)


## Risco de acesso ao endpoint do Amazon Comprehend
<a name="manage-endpoints-trusted-advisor-endpoint-access-risk"></a>

A verificação do **risco de acesso ao endpoint do Amazon Comprehend** avalia as permissões da chave do AWS Key Management Service (AWS KMS) para um endpoint em que o modelo subjacente foi criptografado usando chaves gerenciadas pelo cliente. Se a chave gerenciada pelo cliente estiver desabilitada, ou se a política de chave foi alterada para alterar as permissões permitidas para o Amazon Comprehend, a disponibilidade do endpoint pode ser afetada. Se a chave tiver sido desabilitada, recomendamos que você a habilite. Se a política de chaves foi alterada e você deseja continuar usando esse endpoint, recomendamos que você atualize a política de chaves. Os resultados da verificação são atualizados automaticamente várias vezes durante o dia. Essa verificação pode ser visualizada na categoria **Tolerância a falhas** do console do Trusted Advisor .

**Para visualizar o status da AWS KMS chave de seus endpoints do Amazon Comprehend**

1. Faça login no Console de gerenciamento da AWS e abra o Trusted Advisor console.

1. No painel de navegação, escolha a categoria de **FaultTolerance**verificação.

1. Na página de categoria, você pode visualizar o resumo de cada categoria de verificação:
   + **Ação recomendada (vermelho)** — Trusted Advisor recomenda uma ação para a verificação.
   + **Investigação recomendada (amarelo)**: o Trusted Advisor detecta um possível problema para a verificação.
   + **Nenhum problema detectado (verde)** — Trusted Advisor não detecta um problema na verificação.
   + **Itens excluídos (cinza)**: o número de verificações que excluíram itens, como recursos que você deseja que uma verificação ignore.

1. Escolha a verificação do risco de acesso ao endpoint do Amazon Comprehend e você poderá ver a descrição de verificação e os seguintes detalhes:
   + **Critérios de alerta**: descreve o limite quando uma verificação mudará o status.
   + **Ação recomendada** - descreve as ações recomendadas para esta verificação.
   + **Tabela de recursos:** uma tabela que lista os detalhes do endpoint criptografado do KMS e o status de cada um, com base na existência de ações recomendadas.

1. Na tabela Recursos, se um endpoint estiver marcado com o status **Ação recomendada**, selecione o link na KeyId coluna KMS e você será redirecionado para a página chave correspondente. AWS KMS 
   + Para ativar uma AWS KMS chave desativada, escolha **Ações principais** e selecione **Ativar**.
   + Se o status da chave estiver listado como **Habilitado**, atualize a política de chave escolhendo **Alternar para a visualização da política** na seção Política de chave. Edite o documento da política de chaves para fornecer as permissões necessárias ao Amazon Comprehend e, em seguida, escolha **Salvar alterações**. 

Aqui está um exemplo da visualização por FaultTolerance categoria no Trusted Advisor console:

![\[Exemplo de saída das verificações de tolerância a falhas.\]](http://docs.aws.amazon.com/pt_br/comprehend/latest/dg/images/TA_fault_tolerance_checks_new.png)


Essas verificações e seus resultados também podem ser visualizados consultando a Trusted Advisor seção da AWS Support API.

Para saber mais sobre como configurar alarmes usando CloudWatch, consulte: [Criando Trusted Advisor alarmes](https://docs.aws.amazon.com/awssupport/latest/user/cloudwatch-metrics-ta.html) usando. CloudWatch Para obter um conjunto completo de verificações de Trusted Advisor melhores práticas, consulte: [lista de verificação de AWS Trusted Advisor melhores práticas](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/best-practice-checklist/).

# Excluindo endpoints do Amazon Comprehend
<a name="manage-endpoints-delete"></a>

Quando você não precisar mais do seu endpoint, você deverá excluí-lo para parar de incorrer em custos com ele. Você pode criar facilmente outro endpoint sempre que precisar na seção **Endpoints**.

**Para excluir um endpoint (console)**

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon Comprehend em [https://console.aws.amazon.com/comprehend/](https://console.aws.amazon.com/comprehend/)

1. No menu à esquerda, escolha **Endpoints**.

1. Na **Tabela de endpoints**, localize o endpoint que você deseja excluir. Você pode pesquisar ou filtrar todos os endpoints para encontrar o que você precisa. 

1. Marque a caixa de seleção para o endpoint que você deseja excluir. No canto superior direito da tabela de endpoints, selecione o ícone **Ações**.

1. Escolha **Excluir**.

1. Escolha **Excluir** para confirmar a exclusão. A página dos endpoints é exibida. Confirme se o endpoint que você excluiu mostra **Excluindo** ao lado dele. Quando ele é excluído, o endpoint é removido da lista de **endpoints**.





**Para excluir um endpoint (AWS CLI)**

O exemplo a seguir demonstra o uso da *DeleteEndpoint*operação com a AWS CLI. 

O exemplo é formatado para Unix, Linux e macOS. Para Windows, substitua o caractere de continuação Unix de barra invertida (\$1) no final de cada linha por um circunflexo (^).

```
aws comprehend delete-endpoint \
    --endpoint-arn arn:aws:comprehend:region:account-id endpoint/endpoint name
```

Se a ação for executada com êxito, o Amazon Comprehend responderá com uma resposta HTTP 200 com um corpo HTTP vazio.

# Ajuste de escala automático com endpoints
<a name="comprehend-autoscaling"></a>

Em vez de ajustar manualmente o número de unidades de inferência provisionadas para seus endpoints de classificação de documentos e endpoints de reconhecimento de entidades, você pode usar o ajuste de escala automático para definir automaticamente o provisionamento de endpoints de acordo com suas necessidades de capacidade. 

Há duas maneiras de usar o ajuste de escala automático para ajustar o número de unidades de inferência provisionadas para seu endpoint:
+ [Monitoramento do objetivo](targettracking.md): defina o ajuste de escala automático para ajustar o provisionamento de endpoints de acordo com as necessidades de capacidade com base no uso. 
+ [Escalabilidade programada](ScheduledScaling.md): defina o ajuste de escala automático para ajustar o provisionamento de endpoints de acordo com as necessidades de capacidade em um cronograma especificado.

Você pode definir o escalonamento automático somente com o AWS Command Line Interface (AWS CLI). Para obter mais informações sobre o ajuste de escala automático, consulte [O que é o Application Auto Scaling](https://docs.aws.amazon.com/autoscaling/application/userguide/what-is-application-auto-scaling.html)?

# Monitoramento do objetivo
<a name="targettracking"></a>

Com o rastreamento de destinos, você pode ajustar o provisionamento de endpoints para atender às suas necessidades de capacidade com base no uso. O número de unidades de inferência se ajusta automaticamente para que a capacidade utilizada esteja dentro de uma porcentagem alvo da capacidade provisionada. Você pode usar o rastreamento de destinos para acomodar picos temporários de uso de seus endpoints de classificação de documentos e endpoints de reconhecimento de entidades. Para obter mais informações, consulte [Políticas de dimensionamento com monitoramento do objetivo para o Application Auto Scaling](https://docs.aws.amazon.com/autoscaling/application/userguide/application-auto-scaling-target-tracking.html).

**nota**  
Os exemplos a seguir estão formatados para Unix, Linux e macOS. Para Windows, substitua o caractere de continuação Unix de barra invertida (\$1) no final de cada linha por um circunflexo (^).

## Configurar o rastreamento de destinos
<a name="setup-target-tracking"></a>

Para configurar o rastreamento de destinos para um endpoint, você usa comandos da AWS CLI para registrar um destino escalável e, em seguida, criar uma política de escalabilidade. O destino escalável define as unidades de inferência como o recurso usado para ajustar o provisionamento de endpoints e a política de escalabilidade define as métricas que controlam o ajuste de escala automático da capacidade provisionada. 

**Para configurar o rastreamento de destinos**

1. Registrar um destino escalável. Os exemplos a seguir registram um destino escalável para ajustar o provisionamento de endpoints com uma capacidade mínima de 1 unidade de inferência e uma capacidade máxima de 2 unidades de inferência.

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling register-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits \
       --min-capacity 1 \
       --max-capacity 2
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling register-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits \
       --min-capacity 1 \
       --max-capacity 2
   ```

1. Para verificar o registro do alvo escalável, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling describe-scalable-targets \
       --service-namespace comprehend \
       --resource-id endpoint ARN
   ```

1. Crie uma configuração de rastreamento de destino para a política de escalabilidade e salve a configuração em um arquivo chamado `config.json`. Veja a seguir um exemplo de uma configuração de rastreamento de metas para um endpoint de classificação de documentos que visa manter a InferenceUtilization métrica em 70%.

   ```
   {
     "TargetValue": 70,
     "CustomizedMetricSpecification": {
       "MetricName": "InferenceUtilization",
       "Namespace": "MyNamespace",
       "Dimensions": [
         {
           "Name": "EndpointArn",
           "Value": "arn:aws:comprehend:region:account-id:document-classifier-endpoint/name"
         }
       ],
       "Statistic": "Sum",
       "Unit": "Percent"
     }
   }
   ```

   Veja a seguir um exemplo de um endpoint reconhecedor de entidades:

   ```
   {
     "TargetValue": 70,
     "CustomizedMetricSpecification": {
       "MetricName": "InferenceUtilization",
       "Namespace": "MyNamespace",
       "Dimensions": [
         {
           "Name": "EndpointArn",
           "Value": "arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name"
         }
       ],
       "Statistic": "Sum",
       "Unit": "Percent"
     }
   }
   ```

1. Criar uma política de escalabilidade. Os exemplos a seguir criam uma política de escalabilidade com base na configuração de rastreamento de destino definida no arquivo `config.json`. 

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling put-scaling-policy \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits \
       --policy-name TestPolicy \
       --policy-type TargetTrackingScaling \
       --target-tracking-scaling-policy-configuration file://config.json
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling put-scaling-policy \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits \
       --policy-name TestPolicy \
       --policy-type TargetTrackingScaling \
       --target-tracking-scaling-policy-configuration file://config.json
   ```

## Considerações
<a name="considerations"></a>

As seguintes considerações se aplicam ao usar o rastreamento de alvos com endpoints Comprehend:
+ As métricas de endpoint são emitidas somente para solicitações bem-sucedidas. As métricas não aparecerão para solicitações que são limitadas ou falham devido a um erro interno do servidor ou do cliente.
+ Quando faltam pontos de dados, os estados do CloudWatch alarme de apoio mudarão para`INSUFFICIENT_DATA `. Quando isso acontece, o Application Auto Scaling não pode escalar seu endpoint.
+ A matemática métrica pode ser útil para contornar essa limitação. Por exemplo, para usar um valor de 0 quando nenhuma métrica for relatada, use a `FILL(m1,0)` função where `m1` is the metric. É importante testar sua configuração para garantir que ela esteja se comportando conforme o esperado. Consulte [Criação de políticas de rastreamento de metas usando matemática métrica](https://docs.aws.amazon.com/autoscaling/application/userguide/application-auto-scaling-target-tracking-metric-math.html) para obter mais opções.

## Removendo o rastreamento de destinos
<a name="remove-target-tracking"></a>

Para remover o rastreamento de destino de um endpoint, você usa comandos da AWS CLI para excluir a política de escalabilidade e, em seguida, cancelar o registro do destino escalável.

**Para remover o rastreamento de destino**

1. Exclua a política de escalabilidade Os exemplos a seguir excluem a política de escalabilidade especificada.

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling delete-scaling-policy \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits \
       --policy-name TestPolicy \
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling delete-scaling-policy \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits \
       --policy-name TestPolicy
   ```

1. Cancelar o registro de capacidade pretendida escalável. Os exemplos a seguir cancelam o registro de um destino escalável especificado.

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling deregister-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling deregister-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits
   ```

# Escalabilidade programada
<a name="ScheduledScaling"></a>

Com a escalabilidade programada, você pode ajustar o provisionamento de endpoints para atender às suas necessidades de capacidade em um cronograma específico. A escalabilidade programada ajusta automaticamente o número de unidades de inferência para acomodar picos de uso em horários específicos. Você pode usar a escalabilidade programada para endpoints de classificação de documentos e endpoints de reconhecimento de entidades. Para mais informações sobre escalabilidade programada, consulte [Escalabilidade programada para Ajuste de escala automático do aplicativo](https://docs.aws.amazon.com/autoscaling/application/userguide/application-auto-scaling-scheduled-scaling.html).

**nota**  
Os exemplos a seguir estão formatados para Unix, Linux e macOS. Para Windows, substitua o caractere de continuação Unix de barra invertida (\$1) no final de cada linha por um circunflexo (^).

## Configurar a escalabilidade programada
<a name="setup-scheduled-scaling"></a>

Para configurar o escalonamento agendado para um endpoint, você usa comandos da AWS CLI para registrar um destino escalável e, em seguida, criar uma ação agendada. O destino escalável define as unidades de inferência como o recurso usado para ajustar o provisionamento de endpoints e a ação programada controla o ajuste de escala automático da capacidade provisionada em horários específicos.

**Para configurar a escalabilidade programada**

1. Registrar um destino escalável. Os exemplos a seguir registram um destino escalável para ajustar o provisionamento de endpoints com uma capacidade mínima de 1 unidade de inferência e uma capacidade máxima de 2 unidades de inferência.

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling register-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits \
       --min-capacity 1 \
       --max-capacity 2
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling register-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits \
       --min-capacity 1 \
       --max-capacity 2
   ```

1. Criar uma ação programada. Os exemplos a seguir criam uma ação programada para ajustar automaticamente a capacidade provisionada todos os dias às 12:00 UTC com um mínimo de 2 unidades de inferência e um máximo de 5 unidades de inferência. Para obter mais informações sobre expressões cronológicas e escalabilidade programada, consulte [Expressões de programação](https://docs.aws.amazon.com/AmazonCloudWatch/latest/events/ScheduledEvents.html). 

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling put-scheduled-action \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits \
       --scheduled-action-name TestScheduledAction \
       --schedule "cron(0 12 * * ? *)" \
       --scalable-target-action MinCapacity=2,MaxCapacity=5
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling put-scheduled-action \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits \
       --scheduled-action-name TestScheduledAction \
       --schedule "cron(0 12 * * ? *)" \
       --scalable-target-action MinCapacity=2,MaxCapacity=5
   ```

## Removendo a escalabilidade programada
<a name="remove-scheduled-scaling"></a>

Para remover o escalonamento programado de um endpoint, você usa comandos AWS CLI para excluir a ação agendada e, em seguida, cancelar o registro do destino escalável.

**Para remover a escalabilidade programada**

1. Excluir as ações programadas. Os exemplos a seguir excluem uma ação programada específica.

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling delete-scheduled-action \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits \
       --scheduled-action-name TestScheduledAction
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling delete-scheduled-action \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits \
       --scheduled-action-name TestScheduledAction
   ```

1. Cancelar o registro de capacidade pretendida escalável. Os exemplos a seguir cancelam o registro de um destino escalável especificado.

   Para um endpoint de classificação de documentos, use o seguinte comando da AWS CLI:

   ```
   aws application-autoscaling deregister-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:document-classifier-endpoint/name \
       --scalable-dimension comprehend:document-classifier-endpoint:DesiredInferenceUnits
   ```

   Para um endpoint reconhecedor de entidades, use o seguinte comando da CLI: AWS 

   ```
   aws application-autoscaling deregister-scalable-target \
       --service-namespace comprehend \
       --resource-id arn:aws:comprehend:region:account-id:entity-recognizer-endpoint/name \
       --scalable-dimension comprehend:entity-recognizer-endpoint:DesiredInferenceUnits
   ```