

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Redshift integration for Apache Spark を使用した Spark アプリケーションの起動
<a name="emr-spark-redshift-launch"></a>

Amazon EMR リリース 6.4 から 6.9 では、`--jars` または `--packages` オプションを使用して、次の JAR ファイルのうちどのファイルを使用するかを指定する必要があります。`--jars` オプションは、ローカル、HDFS、または HTTP/S を使用して保存される依存関係を指定します。`--jars` オプションでサポートされている他のファイルの場所については、Spark ドキュメントの「[Advanced Dependency Management](https://spark.apache.org/docs/latest/submitting-applications.html#advanced-dependency-management)」を参照してください。`--packages` オプションでは、パブリック Maven リポジトリに保存されている依存関係を指定します。
+ `spark-redshift.jar`
+ `spark-avro.jar`
+ `RedshiftJDBC.jar`
+ `minimal-json.jar`

Amazon EMR リリース 6.10.0 以降は `minimal-json.jar` 依存関係を必要とせず、デフォルトで他の依存関係を各クラスターに自動的にインストールします。以下の例は、Apache Spark 用の Amazon Redshift インテグレーションを使用して Spark アプリケーションを起動する方法を示しています。

------
#### [ Amazon EMR 6.10.0 \$1 ]

次の例は、Amazon EMR リリース 6.10 以降で `spark-redshift` コネクタを使用して Spark アプリケーションを起動する方法を示しています。

```
spark-submit my_script.py
```

------
#### [ Amazon EMR 6.4.0 - 6.9.x ]

Amazon EMR リリース 6.4 から 6.9 で `spark-redshift` コネクタを使用して Spark アプリケーションを起動するには、次の例に示すように、`--jars` または `--packages` オプションを使用する必要があります。なお、`--jars` オプションに指定されているパスは JAR ファイルのデフォルトのパスであることに注意してください。

```
spark-submit \
  --jars /usr/share/aws/redshift/jdbc/RedshiftJDBC.jar,/usr/share/aws/redshift/spark-redshift/lib/spark-redshift.jar,/usr/share/aws/redshift/spark-redshift/lib/spark-avro.jar,/usr/share/aws/redshift/spark-redshift/lib/minimal-json.jar \
  my_script.py
```

------