

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Lancement d'une application Spark à l'aide de l'intégration Amazon Redshift pour Apache Spark
<a name="emr-spark-redshift-launch"></a>

Pour utiliser l'intégration, vous devez transmettre les dépendances Spark Redshift requises à votre tâche Spark. Vous devez utiliser `--jars` pour inclure les bibliothèques liées au connecteur Redshift. Pour connaître les autres emplacements de fichiers pris en charge par l'option `--jars`, consultez la rubrique [Gestion avancée des dépendances](https://spark.apache.org/docs/latest/submitting-applications.html#advanced-dependency-management) de la documentation Apache Spark. 
+ `spark-redshift.jar`
+ `spark-avro.jar`
+ `RedshiftJDBC.jar`
+ `minimal-json.jar`

Pour lancer une application Spark avec l'intégration Amazon Redshift pour Apache Spark sur Amazon EMR on EKS en version 6.9.0 ou ultérieure, utilisez la commande de l'exemple ci-dessous. Notez que les chemins répertoriés avec l'option `--conf spark.jars` sont les chemins par défaut des fichiers JAR.

```
aws emr-containers start-job-run \

--virtual-cluster-id cluster_id \
--execution-role-arn arn \
--release-label emr-6.9.0-latest\
--job-driver '{
    "sparkSubmitJobDriver": {
        "entryPoint": "s3://script_path", 
            "sparkSubmitParameters":
            "--conf spark.kubernetes.file.upload.path=s3://upload_path 
             --conf spark.jars=
                /usr/share/aws/redshift/jdbc/RedshiftJDBC.jar,
                /usr/share/aws/redshift/spark-redshift/lib/spark-redshift.jar,
                /usr/share/aws/redshift/spark-redshift/lib/spark-avro.jar,
                /usr/share/aws/redshift/spark-redshift/lib/minimal-json.jar"
                            }
            }'
```