Métricas do Container Insights com observabilidade aprimorada para o Amazon EKS e o Kubernetes
As tabelas a seguir listam as métricas e as dimensões que o Container Insights com observabilidade aprimorada coleta para o Amazon EKS e o Kubernetes. Essas métricas estão no namespace ContainerInsights
. Para obter mais informações, consulte Métricas.
Se você não vir as métricas do Container Insights com observabilidade aprimorada no console, certifique-se de que você concluiu a configuração do Container Insights com observabilidade aprimorada. As métricas não serão exibidas até que o Container Insights com observabilidade aprimorada tenha sido configurado completamente. Para obter mais informações, consulte Configurar o Container Insights.
Se você estiver usando a versão 1.5.0 ou versões posteriores do complemento do Amazon EKS ou a versão 1.300035.0 do agente do CloudWatch, a maioria das métricas listadas na tabela a seguir será coletada para nós nos sistemas Linux e Windows. Consulte a coluna Nome da métrica da tabela para visualizar quais métricas não são coletadas para o Windows.
Com a versão anterior do Container Insights, que fornece métricas agregadas no nível de cluster e de serviço, as métricas são cobradas como métricas personalizadas. Com o Container Insights com capacidade de observabilidade aprimorada para o Amazon EKS, as métricas do Container Insights são cobradas por observação, em vez de serem cobradas por métrica armazenada ou log ingerido. Para obter mais informações sobre os preços do CloudWatch, consulte Preço do Amazon CloudWatch
nota
No Windows, métricas de rede, como pod_network_rx_bytes
e pod_network_tx_bytes
, não são coletadas para a hospedagem de contêineres de processos.
Em clusters do RedHat OpenShift na AWS (ROSA), métricas de diskio, como node_diskio_io_serviced_total
e node_diskio_io_service_bytes_total
, não são coletadas.
Nome da métrica | Dimensões | Descrição |
---|---|---|
|
|
O número de nós do operador com falha no cluster. Um nó é considerado com falha quando apresenta qualquer condição de nó. Para obter mais informações, consulte Condições |
|
|
O número total de nós do operador no cluster. |
|
|
O número de pods em execução por namespace no recurso especificado pelas dimensões que você está usando. |
|
|
O número máximo de unidades de CPU que pode ser atribuído a um único nó neste cluster. |
|
|
A porcentagem de unidades de CPU reservadas para componentes do nó, como kubelet, kube-proxy e Docker. Fórmula: nota
|
|
|
O número de unidades da CPU que está sendo usado nos nós do cluster. |
|
|
A porcentagem total de unidades de CPU que está sendo usada nos nós do cluster. Fórmula: |
|
|
A porcentagem total da capacidade do sistema de arquivos que está sendo usado nos nós do cluster. Fórmula: nota
|
|
|
A quantidade máxima de memória, em bytes, que pode ser atribuída a um único nó neste cluster. |
Não está disponível no Windows. |
|
O número total de inodes (usados e não usados) em um nó. |
Não está disponível no Windows. |
|
O número de inodes não utilizados em um nó. |
|
|
O número total de GPUs disponíveis no nó. |
|
|
O número de GPUs em uso pelos pods em execução no nó. |
|
|
|
|
|
A porcentagem de memória que está sendo usada no momento nos nós do cluster. Fórmula: nota
|
|
|
A porcentagem de memória que está sendo usada no momento pelo nó ou nós. É o percentual de uso de memória de nó dividido pela limitação de memória de nó. Fórmula: |
|
|
A quantidade de memória, em bytes, sendo usada no conjunto de trabalho dos nós no cluster. |
|
|
O número total de bytes transmitidos e recebidos por segundo pela rede por nó em um cluster. Fórmula: nota
|
|
|
O número de contêineres em execução por nó em um cluster. |
|
|
O número de pods em execução por nó em um cluster. |
|
|
O número de pods que podem ser atribuídos a um nó com base em seus recursos alocáveis, que é definido como o restante da capacidade de um nó depois de contabilizar as reservas de daemons do sistema e os limites de remoção rígidos. |
|
|
O número de pods que podem ser atribuídos a um nó com base em sua capacidade. |
|
|
Indica se a condição de status do nó |
|
|
Indica se a condição de status do nó |
|
|
Indica se a condição de status do nó |
|
|
Indica se a condição de status do nó |
|
|
Indica se alguma das condições de status do nó é Desconhecida. |
|
|
O número de pacotes que foram recebidos e posteriormente descartados por uma interface de rede no nó. |
|
|
O número de pacotes que deveriam ser transmitidos, mas foram descartados por uma interface de rede no nó. |
Não está disponível em clusters do Windows nem do ROSA. |
|
O número total de bytes transferidos por todas as operações de E/S no nó. |
Não está disponível em clusters do Windows nem do ROSA. |
|
O número total de operações de E/S no nó. |
|
|
A capacidade da CPU reservada por pod em um cluster. Fórmula: nota
|
|
|
A porcentagem de unidades de CPU que estão sendo usadas por pods. Fórmula: |
|
|
O percentual das unidades de CPU que estão sendo usadas por pods com relação ao limite de pods. Fórmula: |
|
|
A porcentagem de memória reservada para pods. Fórmula: nota
|
|
|
A porcentagem de memória que está sendo usada atualmente pelo pod ou pods. Fórmula: |
|
|
O percentual de memória que está sendo usada por pods com relação ao limite de pods. Se qualquer contêiner no pod não tiver um limite de memória definido, essa métrica não aparecerá. Fórmula: |
|
|
O número de bytes que estão sendo recebidos por segundo na rede pelo pod. Fórmula: nota
|
|
|
O número de bytes que estão sendo transmitidos por segundo na rede pelo pod. Fórmula: nota
|
|
|
As solicitações da CPU para o pod. Fórmula: nota
|
|
|
As solicitações de memória para o pod. Fórmula: nota
|
|
|
O limite de CPU definido para os contêineres no pod. Se algum contêiner no pod não tiver um limite de CPU definido, essa métrica não será exibida. Fórmula: nota
|
|
|
O limite de memória definido para os contêineres no pod. Se qualquer contêiner no pod não tiver um limite de memória definido, essa métrica não aparecerá. Fórmula: nota
|
|
|
Indica que todos os contêineres no pod foram encerrados, e pelo menos um contêiner foi encerrado com um status diferente de zero ou foi encerrado pelo sistema. |
|
|
Indica que todos os contêineres no pod estão prontos, tendo atingido a condição |
|
|
Indica que todos os contêineres no pod estão em execução. |
|
|
Indica que o pod foi agendado para um nó. |
|
|
Indica que o status do pod não pode ser obtido. |
|
|
Indica que o pod foi aceito pelo cluster, mas um ou mais contêineres ainda não estão prontos. |
|
|
Indica que todos os contêineres no pod foram encerrados com êxito e não serão reiniciados. |
|
|
Relata o número de contêineres definidos na especificação do pod. |
|
|
Relata o número de contêineres no pod que estão atualmente no estado |
|
|
Relata o número de contêineres no pod que estão no estado |
|
|
Relata o número de contêineres no pod que estão no estado |
|
|
Relata o número de contêineres no pod que estão no estado |
|
|
Relata o número de contêineres no pod que estão pendentes devido a um erro |
|
|
Relata o número de contêineres no pod que estão pendentes com o motivo |
|
|
Relata o número de contêineres no pod que estão pendentes com o motivo |
|
|
Relata o número de contêineres no pod que estão pendentes devido a |
|
|
Relata o número de contêineres no pod que estão no estado |
|
|
Relata o número de contêineres no pod que estão pendentes com o motivo |
|
|
Indica que um pod foi encerrado porque excede o limite de memória. Essa métrica apenas é exibida quando esse problema ocorre. |
|
|
O número de pacotes que foram recebidos e posteriormente descartados em uma interface de rede para o pod. |
|
|
O número de pacotes que deveriam ser transmitidos, mas foram descartados para o pod. |
|
|
A memória em bytes que está sendo usada por um pod. |
|
|
O número de unidades de CPU usadas por um pod. |
|
|
A porcentagem de unidades de CPU que estão sendo usadas pelo contêiner. Fórmula: nota
|
|
|
A porcentagem de unidades de CPU que estão sendo usadas pelo contêiner em relação ao limite do contêiner. Se o contêiner não tiver um limite de CPU definido, essa métrica não será exibida. Fórmula: nota
|
|
|
A porcentagem de unidades de memória que está sendo usada pelo contêiner. Fórmula: nota
|
|
|
A porcentagem de unidades de memória que está sendo usada pelo contêiner em relação ao limite do contêiner. Se o contêiner não tiver um limite de memória definido, essa métrica não será exibida. Fórmula: nota
|
Não está disponível no Windows. |
|
O número de falhas de alocação de memória que ocorreram no contêiner. |
|
PodName, |
O número total de reinicializações de contêineres em um pod. |
|
Serviço,
|
O número de pods que executam o serviço ou os serviços no cluster. |
|
|
O número de pods desejados para uma workload, conforme definido na especificação da workload. |
|
|
O número de pods de uma workload que atingiram o status de “prontos”. |
|
|
O número de pods para uma workload que estão disponíveis. Um pod está disponível quando estiver pronto para o |
|
|
O número de pods para uma workload que não estão disponíveis. Um pod está disponível quando estiver pronto para o |
|
|
O número de objetos armazenados no etcd no momento da última verificação. |
|
|
Tamanho total do arquivo de banco de dados de armazenamento alocado fisicamente em bytes. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. Unidade: bytes Estatísticas significativas: Soma, Média, Mínimo, Máximo |
|
|
O número total de solicitações de API para o servidor de API do Kubernetes. |
|
|
Latência de resposta para solicitações de API para o servidor de API do Kubernetes. |
|
|
Latência do controlador de admissão em segundos. Um controlador de admissão é um código que intercepta solicitações para o servidor de API do Kubernetes. |
|
|
Latência de resposta observada pelos clientes que chamam o servidor da API do Kubernetes. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
|
|
O número total de solicitações de API para o servidor de API do Kubernetes feitas por clientes. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
|
|
Latência de resposta das chamadas de API para o Etcd. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
|
|
Tamanho do arquivo de banco de dados de armazenamento alocado fisicamente em bytes. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
|
|
O número de solicitações ativas de longa duração para o servidor de API do Kubernetes. |
|
|
O número de solicitações que estão sendo processadas pelo servidor de API do Kubernetes. |
|
|
Latência do webhook de admissão em segundos. Os webhooks de admissão são retornos de chamada HTTP que recebem solicitações de admissão e realizam alguma ação com elas. |
|
|
Latência da subetapa de admissão em segundos. |
|
|
Número de solicitações para APIs obsoletas no servidor de API do Kubernetes. |
|
|
Número de solicitações ao servidor de API do Kubernetes que foram respondidas com um código de resposta HTTP 5XX. |
|
|
Latência de resposta da listagem de objetos do Etc. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
|
|
O número de threads usados pelas solicitações em execução no subsistema de Prioridade e equidade de APIs. |
|
|
Número de solicitações rejeitadas pelo subsistema API Priority and Fairness. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
|
|
O número de solicitações em fila enfileiradas pelo servidor de API do Kubernetes. Essa métrica é experimental e pode mudar em versões futuras do Kubernetes. |
Métricas da GPU NVIDIA
A partir da versão 1.300034.0
do agente do CloudWatch, o Container Insights com observabilidade aprimorada para o Amazon EKS coleta métricas da GPU NVIDIA de workloads do EKS por padrão. O agente do CloudWatch deve ser instalado usando o complemento Observability do CloudWatch para o EKS na versão v1.3.0-eksbuild.1
ou em versões posteriores. Para obter mais informações, consulte Instalação do agente do CloudWatch com o complemento de observabilidade do EKS do Amazon CloudWatch ou com o chart do Helm. Essas métricas de GPU NVIDIA coletadas estão listadas na tabela desta seção.
Para que o Container Insights colete métricas de GPU NVIDIA, você deve atender aos seguintes pré-requisitos:
Você deve usar o Container Insights com observabilidade aprimorada para o Amazon EKS, com o complemento Observability do Amazon CloudWatch para o EKS na versão
v1.3.0-eksbuild.1
ou em versões posteriores.O plug-in de dispositivo NVIDIA para Kubernetes
deve estar instalado no cluster. O kit de ferramentas de contêiner NVIDIA
deve ser instalado nos nós do cluster. Por exemplo, as AMIs aceleradas otimizadas do Amazon EKS são criadas com os componentes necessários.
Você pode optar por não coletar métricas de GPU NVIDIA definindo a opção accelerated_compute_metrics
no arquivo de configuração do agente CloudWatch como false
. Para obter mais informações e um exemplo de configuração de exclusão, consulte (Opcional) Configuração adicional.
Nome da métrica | Dimensões | Descrição |
---|---|---|
|
|
O tamanho total do buffer de quadros, em bytes, nas GPUs alocadas ao contêiner. |
|
|
O bytes do buffer de quadros usados nas GPUs alocadas ao contêiner. |
|
|
A porcentagem do buffer de quadros usada das GPUs alocadas ao contêiner. |
|
|
O uso de energia em watts das GPUs alocadas ao contêiner. |
|
|
A temperatura em graus Celsius das GPUs alocadas ao contêiner. |
|
|
A porcentagem de utilização das GPUs alocadas ao contêiner. |
|
|
O tamanho total do buffer de quadros, em bytes, nas GPUs alocadas ao nó. |
|
|
Os bytes do buffer de quadros usados nas GPUs alocadas ao nó. |
|
|
A porcentagem de buffer de quadros usado nas GPUs alocadas ao nó. |
|
|
O uso de energia em watts das GPUs alocadas ao nó. |
|
|
A temperatura em graus Celsius das GPUs alocadas ao nó. |
|
|
A porcentagem de utilização das GPUs alocadas ao nó. |
|
|
O tamanho total do buffer de quadros, em bytes, nas GPUs alocadas ao pod. |
|
|
Os bytes do buffer de quadros usados nas GPUs alocadas ao pod. |
|
|
A porcentagem de buffer de quadros usada das GPUs alocadas ao pod. |
|
|
O uso de energia em watts das GPUs alocadas ao pod. |
|
|
A temperatura em graus Celsius das GPUs alocadas ao pod. |
|
|
A porcentagem de utilização das GPUs alocadas ao pod. |
Métricas do AWS Neuron para o AWS Trainium e para o AWS Inferentia
A partir da versão 1.300036.0
do agente do CloudWatch, o Container Insights com observabilidade aprimorada para o Amazon EKS coleta métricas de computação acelerada dos aceleradores AWS Trainium e AWS Inferentia por padrão. O agente do CloudWatch deve ser instalado usando o complemento Observability do CloudWatch para o EKS na versão v1.5.0-eksbuild.1
ou em versões posteriores. Para obter mais informações sobre o complemento, consulte Instalação do agente do CloudWatch com o complemento de observabilidade do EKS do Amazon CloudWatch ou com o chart do Helm. Para obter mais informações sobre o AWS Trainium, consulte AWS Trainium
Para que o Container Insights colete métricas do AWS Neuron, você deve atender aos seguintes pré-requisitos:
Você deve usar o Container Insights com observabilidade aprimorada para o Amazon EKS, com o complemento Observability do Amazon CloudWatch para o EKS na versão
v1.5.0-eksbuild.1
ou em versões posteriores.O driver Neuron
deve estar instalado nos nós do cluster. O plug-in do dispositivo Neuron
deve estar instalado no cluster. Por exemplo, as AMIs aceleradas otimizadas do Amazon EKS são criadas com os componentes necessários.
As métricas que são coletadas estão listadas na tabela desta seção. As métricas são coletadas para o AWS Trainium, o AWS Inferentia e o AWS Inferentia2.
O agente do CloudWatch coleta essas métricas do monitor do Neuron
Nome da métrica | Dimensões | Descrição |
---|---|---|
|
|
Utilização do NeuronCore, durante o período de captura do NeuronCore que está alocado para o contêiner. Unidade: Percentual |
|
|
A quantidade de memória do dispositivo usada para constantes durante o treinamento pelo NeuronCore que está alocado para o contêiner (ou ponderações durante a inferência). Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o código executável dos modelos pelo NeuronCore que está alocado para o contêiner. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o rascunho compartilhado dos modelos pelo NeuronCore que está alocado para o contêiner. Esta região de memória está reservada para os modelos. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o runtime do Neuron pelo NeuronCore que está alocado para o contêiner. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para tensores pelo NeuronCore que está alocado para o contêiner. Unidade: bytes |
|
|
A quantidade total de memória usada pelo NeuronCore que está alocado para o contêiner. Unidade: bytes |
|
|
O número de eventos do sistema ECC corrigidos e não corrigidos para a SRAM no chip e para a memória do dispositivo Neuron no nó. Unidade: Contagem |
|
|
A utilização do NeuronCore durante o período capturado do NeuronCore que está alocado para o pod. Unidade: Percentual |
|
|
A quantidade de memória do dispositivo usada para constantes durante o treinamento pelo NeuronCore que está alocado para o pod (ou ponderações durante a inferência). Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o código executável dos modelos pelo NeuronCore que está alocado para o pod. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o rascunho compartilhado dos modelos pelo NeuronCore que está alocado para o pod. Esta região de memória está reservada para os modelos. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o runtime do Neuron pelo NeuronCore que está alocado para o pod. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para tensores pelo NeuronCore que está alocado para o pod. Unidade: bytes |
|
|
A quantidade total de memória usada pelo NeuronCore que está alocado para o pod. Unidade: bytes |
|
|
O número de eventos do sistema ECC corrigidos e não corrigidos para a SRAM no chip e para a memória do dispositivo Neuron que está alocado para um pod. Unidade: bytes |
|
|
A utilização do NeuronCore durante o período capturado do NeuronCore que está alocado para o nó. Unidade: Percentual |
|
|
A quantidade de memória do dispositivo usada para constantes durante o treinamento pelo NeuronCore que está alocado para o nó (ou ponderações durante a inferência). Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o código executável dos modelos pelo NeuronCore que está alocado para o nó. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o rascunho compartilhado dos modelos pelo NeuronCore que está alocado para o nó. Esta é uma região de memória reservada para os modelos. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para o runtime do Neuron pelo NeuronCore que está alocado para o nó. Unidade: bytes |
|
|
A quantidade de memória do dispositivo usada para tensores pelo NeuronCore que está alocado para o nó. Unidade: bytes |
|
|
A quantidade total de memória usada pelo NeuronCore que está alocado para o nó. Unidade: bytes |
|
|
O número total de erros de execução no nó. Isso é calculado pelo agente do CloudWatch ao agregar os erros dos seguintes tipos: Unidade: Contagem |
|
|
O uso total de memória do dispositivo Neuron em bytes no nó. Unidade: bytes |
|
|
Em segundos, a latência para uma execução no nó medida pelo runtime do Neuron. Unidade: segundos |
|
|
O número de eventos do sistema ECC corrigidos e não corrigidos para a SRAM no chip e para a memória do dispositivo Neuron no nó. Unidade: Contagem |
Métricas do AWS Elastic Fabric Adapter (EFA)
A partir da versão 1.300037.0
do agente do CloudWatch, o Container Insights com observabilidade aprimorada para o Amazon EKS coleta métricas do AWS Elastic Fabric Adapter (EFA) de clusters do Amazon EKS em instâncias do Linux. O agente do CloudWatch deve ser instalado usando o complemento Observability do CloudWatch para o EKS na versão v1.5.2-eksbuild.1
ou em versões posteriores. Para obter mais informações sobre o complemento, consulte Instalação do agente do CloudWatch com o complemento de observabilidade do EKS do Amazon CloudWatch ou com o chart do Helm. Para obter mais informações sobre o AWS Elastic Fabric Adapter, consulte Elastic Fabric Adapter
Para que o Container Insights colete métricas do AWS Elastic Fabric Adapter, você deve atender aos seguintes pré-requisitos:
Você deve usar o Container Insights com observabilidade aprimorada para o Amazon EKS, com o complemento Observability do Amazon CloudWatch para o EKS na versão
v1.5.2-eksbuild.1
ou em versões posteriores.O plug-in do dispositivo EFA deve estar instalado no cluster. Para obter mais informações, consulte aws-efa-k8s-device-plugin
no GitHub.
As métricas que são coletadas estão listadas na tabela apresentada a seguir.
Nome da métrica | Dimensões | Descrição |
---|---|---|
|
|
O número de bytes por segundo que são recebidos pelos dispositivos EFA que estão alocados para o contêiner. Unidade: bytes/segundo |
|
|
O número de bytes por segundo que são transmitidos pelos dispositivos EFA que estão alocados para o contêiner. Unidade: bytes/segundo |
|
|
O número de pacotes que foram recebidos e, em seguida, descartados pelos dispositivos EFA que estão alocados para o contêiner. Unidade: contagem/segundo |
|
|
O número de bytes por segundo recebidos usando operações de leitura de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o contêiner. Unidade: bytes/segundo |
|
|
O número de bytes por segundo transmitidos usando operações de leitura de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o contêiner. Unidade: bytes/segundo |
|
|
O número de bytes por segundo recebidos durante operações de gravação de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o contêiner. Unidade: bytes/segundo |
|
|
O número de bytes por segundo que são recebidos pelos dispositivos EFA que estão alocados para o pod. Unidade: bytes/segundo |
|
|
O número de bytes por segundo que são transmitidos pelos dispositivos EFA que estão alocados para o pod. Unidade: bytes/segundo |
|
|
O número de pacotes que foram recebidos e, em seguida, descartados pelos dispositivos EFA alocados para o pod. Unidade: contagem/segundo |
|
|
O número de bytes por segundo recebidos usando operações de leitura de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o pod. Unidade: bytes/segundo |
|
|
O número de bytes por segundo transmitidos usando operações de leitura de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o pod. Unidade: bytes/segundo |
|
|
O número de bytes por segundo recebidos durante operações de gravação de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o pod. Unidade: bytes/segundo |
|
|
O número de bytes por segundo que são recebidos pelos dispositivos EFA que estão alocados para o nó. Unidade: bytes/segundo |
|
|
O número de bytes por segundo que são transmitidos pelos dispositivos EFA que estão alocados para o nó. Unidade: bytes/segundo |
|
|
O número de pacotes que foram recebidos e, em seguida, descartados pelos dispositivos EFA que estão alocados para o nó. Unidade: contagem/segundo |
|
|
O número de bytes por segundo recebidos usando operações de leitura de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o nó. Unidade: bytes/segundo |
|
|
O número de bytes por segundo transmitidos usando operações de leitura de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o pod. Unidade: bytes/segundo |
|
|
O número de bytes por segundo recebidos durante operações de gravação de acesso remoto direto à memória pelos dispositivos EFA que estão alocados para o nó. Unidade: bytes/segundo |
Métricas do Amazon SageMaker AI HyperPod
A partir da versão v2.0.1-eksbuild.1
do complemento CloudWatch Observability do EKS, o Container Insights com observabilidade aprimorada para o Amazon EKS coleta automaticamente as métricas do Amazon SageMaker AI HyperPod de clusters do Amazon EKS. Para obter mais informações sobre o complemento, consulte Instalação do agente do CloudWatch com o complemento de observabilidade do EKS do Amazon CloudWatch ou com o chart do Helm. Para obter mais informações sobre o Amazon SageMaker AI HyperPod, consulte Amazon SageMaker AI HyperPod.
As métricas que são coletadas estão listadas na tabela apresentada a seguir.
Nome da métrica | Dimensões | Descrição |
---|---|---|
|
|
Indica se um nó está rotulado como Unidade: Contagem |
|
|
Indica se um nó está rotulado como Unidade: Contagem |
|
|
Indica se um nó está rotulado como Se a recuperação automática de nó estiver habilitada, o nó será automaticamente substituído pelo Amazon SageMaker AI HyperPod. Unidade: Contagem |
|
|
Indica se um nó está rotulado como Se a recuperação automática de nó estiver habilitada, o nó será automaticamente reinicializado pelo Amazon SageMaker AI HyperPod. Unidade: Contagem |
Métricas do driver do Amazon EBS NVMe
A partir da versão 1.300056.0
do agente do CloudWatch, o Container Insights com observabilidade aprimorada para o Amazon EKS coleta automaticamente métricas do driver do Amazon EBS NVMe de clusters do Amazon EKS em instâncias do Linux. O agente do CloudWatch deve ser instalado por meio do complemento CloudWatch Observability para Amazon EKS na versão 4.1.0
ou em versões posteriores. Para obter mais informações sobre o complemento, consulte Instalação do agente do CloudWatch com o complemento de observabilidade do EKS do Amazon CloudWatch ou com o chart do Helm. Para obter mais informações sobre o Amazon EBS, consulte Estatísticas de performance detalhadas do Amazon EBS.
Para que o Container Insights colete métricas do driver do Amazon EBS NVMe, é necessário atender aos seguintes pré-requisitos:
Você deve usar o Container Insights com observabilidade aprimorada para o Amazon EKS e o complemento CloudWatch Observability para Amazon EKS na versão
4.1.0
ou posterior.O complemento
1.42.0
do driver do EBS CSI ou o chart do Helm devem ser instalados no cluster com as métricas habilitadas.Para habilitar as métricas ao usar o complemento do driver do Amazon EBS CSI, use a opção a seguir ao criar ou atualizar o complemento.
--configuration-values '{ "node": { "enableMetrics": true } }'
Para habilitar as métricas, caso esteja usando o chart do Helm, use a opção a seguir ao criar ou atualizar o complemento.
--set node.enableMetrics=true
As métricas que são coletadas estão listadas na tabela apresentada a seguir.
Nome da métrica | Dimensões | Descrição |
---|---|---|
|
|
O número total de operações de leitura concluídas. |
|
|
O número total de operações de gravação concluídas. |
|
|
O número total de bytes de leitura transferidos. |
|
|
O número total de bytes de gravação transferidos. |
|
|
O tempo total gasto, em microssegundos, por todas as operações de leitura concluídas. |
|
|
O tempo total gasto, em microssegundos, por todas as operações de gravação concluídas. |
|
|
O tempo total, em microssegundos, em que a demanda de IOPS excedeu a performance das IOPS provisionadas do volume. |
|
|
O tempo total, em microssegundos, em que a demanda de throughput excedeu a performance do throughput provisionado. |
|
|
O tempo total, em microssegundos, em que o volume do EBS excedeu a performance máxima de IOPS da instância do Amazon EC2 conectada. |
|
|
O tempo total, em microssegundos, em que o volume do EBS excedeu a performance máxima de throughput da instância do Amazon EC2 conectada. |
|
|
O número de solicitações de operação de leitura e gravação aguardando conclusão. |