

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Lancement d'une application Spark avec l'intégration Amazon Redshift pour Apache Spark
<a name="emr-spark-redshift-launch"></a>

Pour utiliser l'intégration avec EMR Serverless 6.9.0, transmettez les dépendances Spark-Redshift requises à votre tâche Spark. `--jars`À utiliser pour inclure les bibliothèques associées au connecteur Redshift. Pour accéder aux autres emplacements de fichiers pris en charge par `--jars` cette option, reportez-vous à la section [Gestion avancée des dépendances](https://spark.apache.org/docs/latest/submitting-applications.html#advanced-dependency-management) de la documentation d'Apache Spark. 
+ `spark-redshift.jar`
+ `spark-avro.jar`
+ `RedshiftJDBC.jar`
+ `minimal-json.jar`

Les versions 6.10.0 et supérieures d'Amazon EMR ne nécessitent pas la dépendance de `minimal-json.jar` et installent automatiquement les autres dépendances sur chaque cluster par défaut. Les exemples suivants montrent comment lancer une application Spark avec l'intégration Amazon Redshift pour Apache Spark.

------
#### [ Amazon EMR 6.10.0 \$1 ]

Lancez une tâche Spark sur Amazon EMR Serverless avec l'intégration Amazon Redshift pour Apache Spark sur EMR Serverless version 6.10.0 ou ultérieure.

```
spark-submit my_script.py
```

------
#### [ Amazon EMR 6.9.0 ]

Pour lancer une tâche Spark sur Amazon EMR Serverless avec l'intégration Amazon Redshift pour Apache Spark on EMR Serverless version 6.9.0, utilisez l'option illustrée dans l'exemple suivant. `--jars` Notez que les chemins répertoriés avec l'option `--jars` sont les chemins par défaut des fichiers JAR.

```
--jars 
    /usr/share/aws/redshift/jdbc/RedshiftJDBC.jar,
    /usr/share/aws/redshift/spark-redshift/lib/spark-redshift.jar,
    /usr/share/aws/redshift/spark-redshift/lib/spark-avro.jar,
    /usr/share/aws/redshift/spark-redshift/lib/minimal-json.jar
```

```
spark-submit \
  --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC.jar,/usr/share/aws/redshift/spark-redshift/lib/spark-redshift.jar,/usr/share/aws/redshift/spark-redshift/lib/spark-avro.jar,/usr/share/aws/redshift/spark-redshift/lib/minimal-json.jar \
  my_script.py
```

------