As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Usar a configuração de monitoramento para monitorar o operador Spark Kubernetes e os trabalhos Spark
A configuração de monitoramento permite configurar facilmente o arquivamento de logs da sua aplicação Spark e logs do operador no Amazon S3 ou no Amazon CloudWatch. Você pode escolher um ou os dois. Isso adiciona um sidecar do agente de log ao seu pod do operador Spark, driver e pods executores e, subsequentemente, encaminha os logs desses componentes para seus coletores configurados.
Pré-requisitos
Antes de configurar o monitoramento, certifique-se de concluir as seguintes tarefas de configuração:
(Opcional) Se você instalou anteriormente uma versão mais antiga do operador Spark, exclua o SparkApplicationScheduledSparkApplication/CRD.
kubectl delete crd scheduledsparkapplications.sparkoperator.k8s.io kubectl delete crd sparkapplications.sparkoperator.k8s.ioCrie uma função de operator/job execução no IAM se você ainda não tiver uma.
Execute o comando a seguir para atualizar a política de confiança da função de operator/job execução que você acabou de criar:
aws emr-containers update-role-trust-policy \ --cluster-namecluster\ --namespacenamespace\ --role-nameiam_role_name_for_operator/job_execution_roleEdite a política de confiança da função do IAM da sua função de operator/job execução da seguinte forma:
{ "Effect": "Allow", "Principal": { "Federated": "${OIDC-provider}" }, "Action": "sts:AssumeRoleWithWebIdentity", "Condition": { "StringLike": { "OIDC_PROVIDER:sub": "system:serviceaccount:${Namespace}:emr-containers-sa-*" } } }Crie uma política monitoringConfiguration no IAM com as seguintes permissões:
Anexe a política acima à sua função operator/job de execução.