Solução para monitorar aplicações Kafka com o Amazon Managed Grafana - Amazon Managed Grafana

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Solução para monitorar aplicações Kafka com o Amazon Managed Grafana

As aplicações desenvolvidas com base no Apache Kafka têm necessidades de monitoramento especiais. Esta página descreve um modelo que fornece uma solução para monitorar aplicações executando em Máquinas virtuais Java no seu cluster Amazon EKS. A solução pode ser instalada usando AWS Cloud Development Kit (AWS CDK).

nota

Essa solução não é compatível com o monitoramento de aplicações do Amazon Managed Streaming for Apache Kafka. Para obter mais informações sobre o monitoramento de aplicações do Amazon MSK, consulte Monitorar um cluster do Amazon MSK no Amazon Managed Streaming for Apache Kafka Developer Guide.

Essa solução configura:

  • O espaço de trabalho do Amazon Managed Service for Prometheus armazena métricas do Kafka e da Máquina virtual Java (JVM) do seu cluster do Amazon EKS.

  • Coleta de métricas específicas do Kafka e da JVM usando o agente CloudWatch, bem como um complemento do agente CloudWatch. As métricas são configuradas para serem enviadas para o espaço de trabalho do Amazon Managed Service for Prometheus.

  • Seu espaço de trabalho do Amazon Managed Grafana para extrair essas métricas e criar painéis para ajudar a monitorar o cluster.

nota

Essa solução fornece métricas da JVM e do Kafka para sua aplicação em execução no Amazon EKS, mas não inclui métricas do Amazon EKS. Você pode usar a solução observabilidade para monitorar o Amazon EKS para ver métricas e alertas do seu cluster Amazon EKS.

Sobre esta solução

Essa solução configura um espaço de trabalho do Amazon Managed Grafana para fornecer métricas para sua aplicação do Apache Kafka. As métricas são usadas para gerar painéis que ajudam você a operar sua aplicação com mais eficiência, fornecendo insights sobre o desempenho e a workload da aplicação do Kafka.

A imagem a seguir mostra um exemplo de um dos painéis criados por essa solução.

Uma imagem mostrando um exemplo de uma pasta de dashboard do Grafana criada usando essa solução.

As métricas são extraídas com um intervalo de extração de um minuto. Os dashboards mostram métricas agregadas a um minuto, cinco minutos ou mais, com base na métrica específica.

Para obter uma lista das métricas rastreadas por essa solução, consulte Lista de métricas monitoradas.

Custos

Essa solução cria e usa recursos no seu espaço de trabalho. Você será cobrado pelo uso padrão dos recursos criados, incluindo:

  • Acesso dos usuários ao espaço de trabalho do Amazon Managed Grafana. Para obter mais informações sobre preços, consulte Preço do Amazon Managed Grafana.

  • Ingestão e armazenamento de métricas do Amazon Managed Service for Prometheus e análise de métricas (processamento de exemplos de consultas). O número de métricas usadas por essa solução depende da configuração e do uso da aplicação.

    Você pode visualizar as métricas de ingestão e armazenamento no Amazon Managed Service for Prometheus usando o CloudWatch. Para obter mais informações, consulte CloudWatch metrics no Guia do usuário do Amazon Managed Service for Prometheus.

    Você pode estimar o custo usando a Calculadora de Preços na página de preços do Amazon Managed Service for Prometheus. A quantidade de métricas dependerá do número de nós no cluster e das métricas que as aplicações produzem.

  • Custos de rede. Você pode incorrer em cobranças padrão de rede da AWS para tráfego entre zonas de disponibilidade, regiões ou outros tipos de tráfego.

As calculadoras de preços, disponíveis na página de preços de cada produto, podem ajudar a entender os possíveis custos de sua solução. As informações a seguir podem ajudar a obter um custo básico para a solução em execução na mesma zona de disponibilidade do cluster do Amazon EKS.

Produto Métrica da calculadora Valor

Amazon Managed Service para Prometheus

Série ativa

95 (por pod do Kafka)

Intervalo médio da coleta

60 (segundos)

Amazon Managed Grafana

Número de editores e administradores ativos

1 (ou mais, com base em seus usuários)

Esses números são os números base para uma solução que executa o Kafka no Amazon EKS. Isso fornecerá uma estimativa dos custos básicos. Conforme você adiciona pods do Kafka a sua aplicação, os custos aumentam, conforme mostrado. Esses custos não incluem os custos de uso da rede, que variam com base no fato de o espaço de trabalho do Amazon Managed Grafana, o espaço de trabalho do Amazon Managed Service for Prometheus e o cluster Amazon EKS estarem na mesma zona de disponibilidade, Região da AWS e VPN.

Pré-requisitos

Essa solução exige que você tenha realizado as ações a seguir antes de usá-la.

  1. Você deve ter ou criar um cluster do Amazon Elastic Kubernetes Service que deseja monitorar, e o cluster deve ter pelo menos um nó. O cluster deve ter o acesso ao endpoint do servidor de API definido para incluir acesso privado (ele também pode permitir acesso público).

    O modo de autenticação deve incluir acesso à API (pode ser definido como API ou API_AND_CONFIG_MAP). Isso permite que a implantação da solução use entradas de acesso.

    O seguinte deve ser instalado no cluster (verdadeiro por padrão ao criar o cluster por meio do console, mas deve ser adicionado se você criar o cluster usando a API AWS ou AWS CLI): Identidade de Pods do Amazon EKS, CNI AWS, CoreDNS, Kube-proxy e Amazon EBS CSI Driver AddOns (o Amazon EBS CSI Driver AddOns não é tecnicamente necessário para a solução, mas é necessário para a maioria das aplicações do Kafka).

    Salve o nome do cluster para especificar posteriormente. Isso pode ser encontrado nos detalhes do cluster no console do Amazon EKS.

    nota

    Para obter detalhes sobre como criar um cluster do Amazon EKS, consulte Conceitos básicos do Amazon EKS.

  2. Você deve estar executando uma aplicação Apache Kafka em Máquinas virtuais Java no seu cluster Amazon EKS.

  3. Você deve criar um espaço de trabalho do Amazon Managed Service for Prometheus na mesma Conta da AWS do cluster do Amazon EKS. Para obter detalhes, consulte Create a workspace no Guia do usuário do Amazon Managed Service for Prometheus.

    Salve o ARN do espaço de trabalho do Amazon Managed Service for Prometheus para especificar posteriormente.

  4. Você deve criar um espaço de trabalho do Amazon Managed Grafana com o Grafana versão 9 ou mais recente na mesma Região da AWS do cluster do Amazon EKS. Para obter detalhes sobre como criar um espaço de trabalho, consulte Criar um espaço de trabalho do Amazon Managed Grafana.

    O perfil do espaço de trabalho deve ter permissões para acessar o Amazon Managed Service for Prometheus e as APIs do Amazon CloudWatch. A maneira mais fácil de fazer isso é usar as permissões gerenciadas por serviço e selecionar o Amazon Managed Service for Prometheus e CloudWatch. Você também pode adicionar manualmente as políticas AmazonPrometheusQueryAccess e AmazonGrafanaCloudWatchAccess ao perfil do IAM do espaço de trabalho.

    Salve o ID e o endpoint do espaço de trabalho do Amazon Managed Grafana para especificar posteriormente. O ID está no formato g-123example. O ID e o endpoint podem ser encontrados no console do Amazon Managed Grafana. O endpoint é o URL do espaço de trabalho e inclui o ID. Por exemplo, https://g-123example.grafana-workspace.<region>.amazonaws.com/.

nota

Embora não seja estritamente necessário configurar a solução, você deve configurar a autenticação de usuário no espaço de trabalho do Amazon Managed Grafana antes que os usuários possam acessar os dashboards criados. Para obter mais informações, consulte Autenticar usuários nos espaços de trabalho do Amazon Managed Grafana.

Usar esta solução

Esta solução configura a infraestrutura da AWS para ser compatível com os relatórios e métricas de uma aplicação do Kafka em execução em um cluster Amazon EKS. É possível instalá-la usando AWS Cloud Development Kit (AWS CDK):

nota

As etapas aqui pressupõem que você tenha um ambiente com a AWS CLI e o AWS CDK e tanto o Node.js quanto o NPM instalado. Você usará make e brew para simplificar a criação e outras ações comuns.

Para usar essa solução para monitorar um cluster do Amazon EKS com o AWS CDK
  1. Certifique-se de ter concluído todas as etapas dos pré-requisitos.

  2. Faça download de todos os arquivos da solução do Amazon S3. Os arquivos estão localizados em s3://aws-observability-solutions/Kafka_EKS/OSS/CDK/v1.0.0/iac, e você pode fazer o download deles com o comando do Amazon S3 a seguir. Execute esse comando em uma pasta no ambiente de linha de comandos.

    aws s3 sync s3://aws-observability-solutions/Kafka_EKS/OSS/CDK/v1.0.0/iac/ .

    Você não precisa modificar esses arquivos.

  3. No ambiente de linha de comandos (na pasta em que você fez o download dos arquivos da solução), execute os comandos a seguir.

    Defina as variáveis de ambiente necessárias. Substitua REGION, AMG_ENDPOINT, EKS_CLUSTER e AMP_ARN pela sua Região da AWS, pelo endpoint do espaço de trabalho do Amazon Managed Grafana (no formato http://g-123example.grafana-workspace.us-east-1.amazonaws.com), pelo nome do cluster do Amazon EKS e pelo ARN do espaço de trabalho do Amazon Managed Service for Prometheus.

    export AWS_REGION=REGION export AMG_ENDPOINT=AMG_ENDPOINT export EKS_CLUSTER_NAME=EKS_CLUSTER export AMP_WS_ARN=AMP_ARN
  4. Você deve criar anotações que possam ser usadas pela implantação. Você pode optar por anotar diretamente um namespace, implantação, statefulset, daemonset ou seus pods. A solução do Kafka requer cinco anotações. Você usará kubectl para anotar seus recursos com os seguintes comandos:

    kubectl annotate <resource-type> <resource-value> instrumentation.opentelemetry.io/inject-java=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-jvm=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-kafka=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-kafka-producer=true kubectl annotate <resource-type> <resource-value> cloudwatch.aws.amazon.com/inject-jmx-kafka-consumer=true

    Substitua <resource-type> e <resource-value> pelos valores corretos para seu sistema. Por exemplo, para anotar sua implantação foo, seu primeiro comando seria:

    kubectl annotate deployment foo instrumentation.opentelemetry.io/inject-java=true
  5. Crie um token de conta de serviço com acesso ADMIN para chamar as APIs HTTP do Grafana. Para obter detalhes, consulte Usar contas de serviço para se autenticar com as APIs HTTP do Grafana. Você pode usar a AWS CLI com os comandos a seguir para criar o token. Você precisará substituir GRAFANA_ID pelo ID do seu espaço de trabalho do Grafana (ele estará no formato g-123example). Essa chave vai expirar após 7.200 segundos, ou 2 horas. Você pode alterar a hora (seconds-to-live), se necessário. A implantação leva menos de uma hora.

    # creates a new service account (optional: you can use an existing account) GRAFANA_SA_ID=$(aws grafana create-workspace-service-account \ --workspace-id GRAFANA_ID \ --grafana-role ADMIN \ --name grafana-operator-key \ --query 'id' \ --output text) # creates a new token for calling APIs export AMG_API_KEY=$(aws grafana create-workspace-service-account-token \ --workspace-id $managed_grafana_workspace_id \ --name "grafana-operator-key-$(date +%s)" \ --seconds-to-live 7200 \ --service-account-id $GRAFANA_SA_ID \ --query 'serviceAccountToken.key' \ --output text)

    Disponibilize a chave de API para o AWS CDK adicionando-a ao AWS Systems Manager com o comando a seguir. Substitua AWS_REGION pela região em que a solução será executada (no formato us-east-1).

    aws ssm put-parameter --name "/observability-aws-solution-kafka-eks/grafana-api-key" \ --type "SecureString" \ --value $AMG_API_KEY \ --region AWS_REGION \ --overwrite
  6. Execute o comando make a seguir, que vai instalar todas as outras dependências do projeto.

    make deps
  7. Por fim, execute o projeto do AWS CDK:

    make build && make pattern aws-observability-solution-kafka-eks-$EKS_CLUSTER_NAME deploy
  8. [Opcional] Depois que a criação da pilha for concluída, você poderá usar o mesmo ambiente para criar mais instâncias da pilha para outras aplicações do Kafka executadas em clusters do Amazon EKS na mesma região, desde que preencha os outros pré-requisitos de cada um (incluindo espaços de trabalho separados do Amazon Managed Grafana e do Amazon Managed Service for Prometheus). Você precisará redefinir os comandos export com os novos parâmetros.

Quando a criação da pilha for concluída, o espaço de trabalho Amazon Managed Grafana será preenchido com um painel mostrando as métricas para suas aplicações e o cluster do Amazon EKS. Levará alguns minutos para que as métricas sejam exibidas, pois elas estão sendo coletadas.

Lista de métricas monitoradas

Essa solução coleta métricas de sua aplicação baseado em JVM do Kafka. Essas métricas são armazenadas no Amazon Managed Service for Prometheus e exibidas nos dashboards do Amazon Managed Grafana.

As métricas a seguir são monitoradas com essa solução.

  • jvm.classes.loaded

  • jvm.gc.collections.count

  • jvm.gc.collections.elapsed

  • jvm.memory.heap.init

  • jvm.memory.heap.max

  • jvm.memory.heap.used

  • jvm.memory.heap.committed

  • jvm.memory.nonheap.init

  • jvm.memory.nonheap.max

  • jvm.memory.nonheap.used

  • jvm.memory.nonheap.committed

  • jvm.memory.pool.init

  • jvm.memory.pool.max

  • jvm.memory.pool.used

  • jvm.memory.pool.committed

  • jvm.threads.count

  • kafka.message.count

  • kafka.request.count

  • kafka.request.failed

  • kafka.request.time.total

  • kafka.request.time.50p

  • kafka.request.time.99p

  • kafka.request.time.avg

  • kafka.network.io

  • kafka.purgatory.size

  • kafka.partition.count

  • kafka.partition.offline

  • kafka.partition.under_replicated

  • kafka.isr.operation.count

  • kafka.max.lag

  • kafka.controller.active.count

  • kafka.leader.election.rate

  • kafka.unclean.election.rate

  • kafka.request.queue

  • kafka.logs.flush.time.count

  • kafka.logs.flush.time.median

  • kafka.logs.flush.time.99p

  • kafka.consumer.fetch-rate

  • kafka.consumer.records-lag-max

  • kafka.consumer.total.bytes-consumed-rate

  • kafka.consumer.total.fetch-size-avg

  • kafka.consumer.total.records-consumed-rate

  • kafka.consumer.bytes-consumed-rate

  • kafka.consumer.fetch-size-avg

  • kafka.consumer.records-consumed-rate

  • kafka.producer.io-wait-time-ns-avg

  • kafka.producer.outgoing-byte-rate

  • kafka.producer.request-latency-avg

  • kafka.producer.request-rate

  • kafka.producer.response-rate

  • kafka.producer.byte-rate

  • kafka.producer.compression-rate

  • kafka.producer.record-error-rate

  • kafka.producer.record-retry-rate

  • kafka.producer.record-send-rate

Solução de problemas

Há algumas coisas que podem fazer com que a configuração do projeto falhe. Certifique-se de verificar o seguinte:

  • Você deve concluir todos os pré-requisitos antes de instalar a solução.

  • O cluster deve ter pelo menos um nó antes de tentar criar a solução ou acessar as métricas.

  • O cluster do Amazon EKS deve ter os complementos AWS CNI, CoreDNS e kube-proxy instalados. Se eles não estiverem instalados, a solução não funcionará corretamente. Eles são instalados por padrão ao criar o cluster por meio do console. Talvez seja necessário instalá-los se o cluster tiver sido criado por meio do AWS SDK.

  • O tempo limite de instalação dos pods do Amazon EKS expirou. Isso poderá acontecer se não houver capacidade suficiente de nós disponível. Há várias causas para esses problemas, incluindo:

    • O cluster do Amazon EKS foi inicializado com o Fargate em vez do Amazon EC2. Esse projeto requer o Amazon EC2.

    • Os nós estão corrompidos e, portanto, indisponíveis.

      Você pode usar kubectl describe node NODENAME | grep Taints para verificar os taints. Em seguida, kubectl taint node NODENAME TAINT_NAME- para remover os taints. Certifique-se de incluir - após o nome do taint.

    • Os nós atingiram o limite de capacidade. Nesse caso, você pode criar um novo nó ou aumentar a capacidade.

  • Você não vê nenhum dashboard no Grafana: você está usando o ID incorreto do espaço de trabalho do Grafana.

    Execute o seguinte comando para obter informações sobre o Grafana:

    kubectl describe grafanas external-grafana -n grafana-operator

    Você pode verificar os resultados do URL correto do espaço de trabalho. Se não for o que você espera, implante novamente com o ID do espaço de trabalho correto.

    Spec: External: API Key: Key: GF_SECURITY_ADMIN_APIKEY Name: grafana-admin-credentials URL: https://g-123example.grafana-workspace.aws-region.amazonaws.com Status: Admin URL: https://g-123example.grafana-workspace.aws-region.amazonaws.com Dashboards: ...
  • Você não vê nenhum dashboard no Grafana: você está usando uma chave de API expirada.

    Para procurar esse caso, você precisará obter o operador do Grafana e verificar se há erros nos logs. Obtenha o nome do operador do Grafana com este comando:

    kubectl get pods -n grafana-operator

    Isso retornará o nome do operador, por exemplo:

    NAME READY STATUS RESTARTS AGE grafana-operator-1234abcd5678ef90 1/1 Running 0 1h2m

    Use o nome do operador no seguinte comando:

    kubectl logs grafana-operator-1234abcd5678ef90 -n grafana-operator

    Mensagens de erro como as seguintes indicam uma chave de API expirada:

    ERROR error reconciling datasource {"controller": "grafanadatasource", "controllerGroup": "grafana.integreatly.org", "controllerKind": "GrafanaDatasource", "GrafanaDatasource": {"name":"grafanadatasource-sample-amp","namespace":"grafana-operator"}, "namespace": "grafana-operator", "name": "grafanadatasource-sample-amp", "reconcileID": "72cfd60c-a255-44a1-bfbd-88b0cbc4f90c", "datasource": "grafanadatasource-sample-amp", "grafana": "external-grafana", "error": "status: 401, body: {\"message\":\"Expired API key\"}\n"} github.com/grafana-operator/grafana-operator/controllers.(*GrafanaDatasourceReconciler).Reconcile

    Nesse caso, crie uma chave de API e implante a solução novamente. Se o problema persistir, você pode forçar a sincronização usando o seguinte comando antes da nova implantação:

    kubectl delete externalsecret/external-secrets-sm -n grafana-operator
  • Falta o parâmetro SSM. Se você encontrar um erro como a seguir, execute cdk bootstrap e tente novamente.

    Deployment failed: Error: aws-observability-solution-kafka-eks-$EKS_CLUSTER_NAME: SSM parameter /cdk-bootstrap/xxxxxxx/version not found. Has the environment been bootstrapped? Please run 'cdk bootstrap' (see https://docs.aws.amazon.com/cdk/latest/ guide/bootstrapping.html)