

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Ottimizzazione dei processi Spark in EMR Studio
<a name="emr-studio-spark-optimization"></a>

Quando si esegue un processo Spark utilizzando EMR Studio, è possibile eseguire alcune fase per garantire l'ottimizzazione delle risorse del cluster Amazon EMR.

## Prolunga la tua sessione Livy
<a name="optimize-spark-livy-timeout"></a>

Se utilizzi Apache Livy insieme a Spark sul cluster Amazon EMR, ti consigliamo di aumentare il timeout della sessione Livy effettuando una delle seguenti operazioni:
+ Quando crei un cluster Amazon EMR, imposta questa classificazione di configurazione nel campo **Enter Configuration (Immettere la configurazione)**.

  ```
  [
      {
          "Classification": "livy-conf",
          "Properties": {
            "livy.server.session.timeout": "8h"
          }
      }
  ]
  ```
+ Per un cluster EMR già in esecuzione, connettiti al cluster utilizzando `ssh` e imposta la classificazione di configurazione `livy-conf` in `/etc/livy/conf/livy.conf`.

  ```
  [
      {
          "Classification": "livy-conf",
          "Properties": {
            "livy.server.session.timeout": "8h"
          }
      }
  ]
  ```

  Potrebbe essere necessario riavviare Livy dopo aver modificato la configurazione.
+ Se non vuoi che la tua sessione di Livy venga scaduta, imposta la proprietà `livy.server.session.timeout-check` a `false` in `/etc/livy/conf/livy.conf`.

## Esecuzione di Spark in modalità cluster
<a name="optimize-spark-cluster-mode"></a>

In modalità cluster, il driver Spark viene eseguito su un nodo principale anziché sul nodo primario, il che migliora l'utilizzo delle risorse sul nodo primario. 

Per eseguire l'applicazione Spark in modalità cluster anziché nella modalità client predefinita, scegli la modalità **Cluster** quando imposti **Modalità di implementazione** durante la configurazione della fase Spark nel tuo nuovo cluster Amazon EMR. Per ulteriori informazioni, consulta [Panoramica della modalità cluster](https://spark.apache.org/docs/latest/cluster-overview.html) nella documentazione di Apache Spark.

## Aumento della memoria del driver Spark
<a name="optimize-spark-memory"></a>

Per aumentare la memoria del driver Spark, configura la sessione Spark utilizzando il comando magic `%%configure` nel notebook EMR, come nell'esempio seguente.

```
%%configure -f
{"driverMemory": "6000M"}
```