

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Optimalkan pekerjaan Spark di EMR Studio
<a name="emr-studio-spark-optimization"></a>

Saat menjalankan pekerjaan Spark menggunakan EMR Studio, ada beberapa langkah yang dapat Anda ambil untuk membantu memastikan bahwa Anda mengoptimalkan sumber daya kluster Amazon EMR Anda.

## Perpanjang sesi Livy Anda
<a name="optimize-spark-livy-timeout"></a>

Jika Anda menggunakan Apache Livy bersama dengan Spark di cluster EMR Amazon Anda, kami sarankan Anda meningkatkan batas waktu sesi Livy Anda dengan melakukan salah satu hal berikut:
+ Saat Anda membuat klaster EMR Amazon, atur klasifikasi konfigurasi ini di bidang **Enter Configuration**.

  ```
  [
      {
          "Classification": "livy-conf",
          "Properties": {
            "livy.server.session.timeout": "8h"
          }
      }
  ]
  ```
+ Untuk kluster EMR yang sudah berjalan, sambungkan ke klaster Anda menggunakan `ssh` dan atur klasifikasi konfigurasi. `livy-conf` `/etc/livy/conf/livy.conf`

  ```
  [
      {
          "Classification": "livy-conf",
          "Properties": {
            "livy.server.session.timeout": "8h"
          }
      }
  ]
  ```

  Anda mungkin perlu me-restart Livy setelah mengubah konfigurasi.
+ Jika Anda tidak ingin sesi Livy Anda habis sama sekali, atur properti `livy.server.session.timeout-check` ke `false` dalam`/etc/livy/conf/livy.conf`.

## Jalankan Spark dalam mode cluster
<a name="optimize-spark-cluster-mode"></a>

Dalam mode cluster, driver Spark berjalan pada node inti bukan pada node utama, meningkatkan pemanfaatan sumber daya pada node utama. 

Untuk menjalankan aplikasi Spark Anda dalam mode cluster alih-alih mode klien default, pilih mode **Cluster** saat Anda mengatur mode **Deploy** saat mengonfigurasi langkah Spark Anda di cluster EMR Amazon baru Anda. Untuk informasi lebih lanjut, lihat [Ikhtisar mode](https://spark.apache.org/docs/latest/cluster-overview.html) dalam dokumentasi Apache Spark.

## Meningkatkan memori driver Spark
<a name="optimize-spark-memory"></a>

Untuk meningkatkan memori driver Spark, konfigurasikan sesi Spark Anda menggunakan perintah `%%configure` ajaib di notebook EMR Anda, seperti pada contoh berikut.

```
%%configure -f
{"driverMemory": "6000M"}
```