

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Conceitos básicos do spark-submit para o Amazon EMR no EKS
<a name="spark-submit-gs"></a>

O Amazon EMR 6.10.0 e versões superiores oferecem suporte ao spark-submit para a execução de aplicações do Spark em um cluster do Amazon EKS. A seção a seguir mostra como enviar um comando para uma aplicação do Spark.

## Execução de uma aplicação do Spark
<a name="spark-submit-run"></a>

Para executar a aplicação do Spark, siga estas etapas:

1. Antes de executar uma aplicação do Spark com o comando `spark-submit`, conclua as etapas em [Configuração do spark-submit para o Amazon EMR no EKS](spark-submit-setup.md). 

1. Execute um contêiner com uma imagem base do Amazon EMR no EKS. Consulte [How to select a base image URI](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/docker-custom-images-tag.html) para obter mais informações.

   ```
   kubectl run -it containerName --image=EMRonEKSImage --command -n namespace /bin/bash
   ```

1. Defina os valores para as seguintes variáveis ​​de ambiente:

   ```
   export SPARK_HOME=spark-home
   export MASTER_URL=k8s://Amazon EKS-cluster-endpoint
   ```

1. Agora, envie a aplicação do Spark com o seguinte comando:

   ```
   $SPARK_HOME/bin/spark-submit \
    --class org.apache.spark.examples.SparkPi \
    --master $MASTER_URL \
    --conf spark.kubernetes.container.image=895885662937.dkr.ecr.us-west-2.amazonaws.com/spark/emr-6.10.0:latest \
    --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark \
    --deploy-mode cluster \
    --conf spark.kubernetes.namespace=spark-operator \
    local:///usr/lib/spark/examples/jars/spark-examples.jar 20
   ```

Para obter mais informações sobre o envio de aplicações para o Spark, consulte [Submitting applications](https://spark.apache.org/docs/latest/submitting-applications.html) na documentação do Apache Spark.

**Importante**  
O `spark-submit` oferece suporte somente para o modo de cluster como o mecanismo de envio.