

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Inizia a usare Apache Spark su Amazon Athena
<a name="notebooks-spark-getting-started"></a>

**Nota**  
[Per la versione di rilascio di Apache Spark versione 3.5, segui la guida introduttiva in SageMaker Notebooks.](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/what-is-sagemaker-unified-studio.html) Usa questa guida per la versione di rilascio del motore Pyspark versione 3.

Per iniziare a utilizzare Apache Spark su Amazon Athena, devi prima di tutto creare un gruppo di lavoro abilitato a Spark. Dopo il passaggio al gruppo di lavoro, è possibile creare un notebook o aprirne uno esistente. Quando apri un notebook in Athena, viene avviata automaticamente una nuova sessione ed è possibile utilizzare il notebook direttamente nell'editor notebook Athena.

**Nota**  
Assicurati di creare un gruppo di lavoro abilitato a Spark prima di tentare di creare un notebook.

## Passaggio 1: creare un gruppo di lavoro abilitato a Spark in Athena
<a name="notebooks-spark-getting-started-creating-a-spark-enabled-workgroup"></a>

Puoi utilizzare i [gruppi di lavoro](workgroups-manage-queries-control-costs.md) in Athena per raggruppare utenti, team, applicazioni o carichi di lavoro e per tenere traccia dei costi. Per utilizzare Apache Spark in Amazon Athena, crei un gruppo di lavoro Amazon Athena che utilizza un motore Spark.

**Nota**  
I gruppi di lavoro compatibili con Apache Spark possono utilizzare l'editor di notebook Athena, ma non l'editor di query Athena. Solo i gruppi di lavoro Athena SQL possono utilizzare l'editor di query Athena.

**Creazione di un gruppo di lavoro abilitato a Spark in Athena**

1. Apri la console Athena all'indirizzo [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home)

1. Se il pannello di navigazione della console non è visibile, scegli il menu di espansione a sinistra.  
![\[Scegli il menu di espansione.\]](http://docs.aws.amazon.com/it_it/athena/latest/ug/images/nav-pane-expansion.png)

1. Nel pannello di navigazione, seleziona **Workgroups** (Gruppi di lavoro).

1. Nella pagina **Gruppi di lavoro** scegli **Crea gruppo di lavoro**.

1. In **Workgroup name** (Nome del gruppo di lavoro), inserisci un nome per il tuo gruppo di lavoro Apache Spark.

1. (Facoltativo) Per **Description** (Descrizione), inserisci una descrizione per il livello.

1. In **Analytics engine** (Motore di analisi), scegli **Apache Spark**.
**Nota**  
Dopo avere creato un gruppo di lavoro, il tipo di motore di analisi del gruppo di lavoro non può essere modificato. Ad esempio, un gruppo di lavoro del motore Athena versione 3 non può essere modificato in un gruppo di lavoro PySpark del motore versione 3. 

1. Ai fini di questo tutorial, seleziona **Turn on example notebook** (Attiva il notebook di esempio). Questa funzionalità opzionale aggiunge un notebook di esempio con lo stesso nome `example-notebook-random_string` al gruppo di lavoro e aggiunge le autorizzazioni AWS Glue relative che il notebook utilizza per creare, mostrare ed eliminare database e tabelle specifici nel tuo account e le autorizzazioni di lettura in Amazon S3 per il set di dati di esempio. Per visualizzare le autorizzazioni aggiunte, scegli **View additional permissions details** (Visualizza dettagli aggiuntivi sulle autorizzazioni).
**Nota**  
 L'esecuzione del notebook di esempio potrebbe comportare dei costi aggiuntivi. 

1. Perle **impostazioni dei risultati di calcolo**, scegliere una delle seguenti opzioni:
   + **Create a new S3 bucket** (Crea un nuovo bucket S3): questa opzione crea un bucket Amazon S3 nel tuo account per i risultati dei calcoli. Il nome del bucket ha il formato `account_id-region-athena-results-bucket-alphanumeric_id` e utilizza le impostazioni ACLs disabilitate, l'accesso pubblico bloccato, il controllo delle versioni disabilitato e il proprietario del bucket applicato.
   + **Choose an existing S3 location** (Scegli una posizione S3 esistente): per questa opzione, procedi come segue:
     + Inserisci il percorso S3 di una posizione esistente nella casella di ricerca o scegli **Browse S3** (Sfoglia S3) per selezionare un bucket da un elenco.
**Nota**  
Quando selezioni una posizione esistente in Amazon S3, non aggiungere una barra (`/`) alla posizione. In questo modo, il collegamento alla posizione dei risultati del calcolo nella [pagina dei dettagli del calcolo](#notebooks-spark-getting-started-viewing-session-and-calculation-details) punta alla directory errata. In tal caso, modifica la posizione dei risultati del gruppo di lavoro rimuovendo la barra finale. 
     + (Facoltativo) Scegli **View** (Visualizza) per aprire la pagina **Buckets** (Bucket) della console Amazon S3, dove puoi trovare ulteriori informazioni sul bucket esistente che hai scelto.
     + (Facoltativo) Per **Proprietario previsto del bucket**, inserisci l'ID dell' AWS account che prevedi sia il proprietario del bucket di posizione di output dei risultati della query. Ti consigliamo di scegliere questa opzione come ulteriore misura di sicurezza. Se l'ID account del proprietario del bucket non corrisponde all'ID specificato, i tentativi di output nel bucket avranno esito negativo. Per informazioni dettagliate, consulta [Verifica della proprietà del bucket con condizione del proprietario del bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-owner-condition.html) nella *Guida per l'utente di Amazon S3*. 
     + (Facoltativo) Seleziona **Assign bucket owner full control over query results** (Assegna al proprietario del bucket il controllo completo dei risultati delle query) se la posizione dei risultati dei calcoli è di proprietà di un altro account e desideri concedere a tale altro account il controllo completo dei risultati delle tue query.

1. (Facoltativo) Scegliere **Encrypt query results** se si desidera crittografare i risultati delle query.
   + In **Encryption type**, scegliere una delle seguenti opzioni:
     + **SSE\$1S3**: questa opzione utilizza la crittografia lato server (SSE) con chiavi crittografia gestite da Amazon S3.
     + **SSE\$1KMS** — Questa opzione utilizza la crittografia lato server (SSE) con chiavi gestite. AWS KMS

       Per **Scegli una AWS KMS chiave, scegli una** delle seguenti opzioni.
       + **Usa chiave AWS proprietaria**: la AWS KMS chiave è di proprietà e gestita da AWS. Non ti viene addebitato alcun costo aggiuntivo per l'utilizzo di questa chiave.
       + **Scegli una AWS KMS chiave diversa (avanzata)**: per questa opzione, esegui una delle seguenti operazioni:
         + Per utilizzare una chiave esistente, usa la casella di ricerca per scegliere AWS KMS o immettere una chiave ARN.
         + Per creare una chiave nella AWS KMS console, scegli **Crea una AWS KMS chiave**. Il ruolo di esecuzione deve disporre dell'autorizzazione a utilizzare la chiave che crei. Dopo aver completato la creazione della chiave nella console KMS, torna alla pagina **Crea gruppo di lavoro** nella console Athena, quindi utilizza la casella di ricerca **Scegli una AWS KMS chiave o inserisci un ARN** per scegliere la chiave appena creata.
**Importante**  
Quando modifichi la [AWS KMS key](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html) per un gruppo di lavoro, i notebook gestiti prima dell'aggiornamento continuano a fare riferimento alla vecchia chiave KMS. I notebook gestiti dopo l'aggiornamento utilizzano la nuova chiave KMS. Per aggiornare i vecchi notebook in modo che facciano riferimento alla nuova chiave KMS, esporta e quindi importa ciascuno dei vecchi notebook. Se elimini la vecchia chiave KMS prima di aggiornare i riferimenti dei vecchi notebook alla nuova chiave KMS, i vecchi notebook non saranno più decifrabili e non potranno essere recuperati.  
Questo comportamento si applica anche agli aggiornamenti degli [alias](https://docs.aws.amazon.com/kms/latest/developerguide/kms-alias.html), che sono nomi semplici per le chiavi KMS. Quando si aggiorna un alias di chiave KMS in modo che punti a una nuova chiave KMS, i notebook gestiti prima dell'aggiornamento dell'alias fanno ancora riferimento alla vecchia chiave KMS, mentre i notebook gestiti dopo l'aggiornamento dell'alias utilizzano la nuova chiave KMS. Tieni a mente questi aspetti prima di aggiornare le chiavi o gli alias KMS. 

1. Per **Additional configurations**, scegliere **Use defaults**. Questa opzione aiuta a iniziare a utilizzare il proprio gruppo di lavoro abilitato per Spark. Quando si utilizzano i predefiniti, Athena crea per tuo conto un ruolo IAM e una posizione dei risultati di calcolo in Amazon S3. Il nome del ruolo IAM e la posizione del bucket S3 da creare sono visualizzati nella casella sotto l'intestazione **Additional configurations** (Configurazioni aggiuntive).

   Se non si vogliono utilizzare i valori predefiniti, continuare con i passaggi nella sezione [(Facoltativo) Definire configurazioni personalizzate per il gruppo di lavoro](#notebooks-spark-getting-started-workgroup-configuration) per configurare manualmente il gruppo di lavoro.

1. (Facoltativo) **Tags** (Tag): utilizza questa opzione per aggiungere tag al gruppo di lavoro. Per ulteriori informazioni, consulta [Assegnare tag alle risorse di Athena](tags.md).

1. Selezionare **Create workgroup (Crea gruppo di lavoro)**. Un messaggio informa che il gruppo di lavoro è stato creato correttamente e il gruppo di lavoro viene visualizzato nell'elenco dei gruppi di lavoro.

### (Facoltativo) Definire configurazioni personalizzate per il gruppo di lavoro
<a name="notebooks-spark-getting-started-workgroup-configuration"></a>

Se desideri specificare un ruolo IAM e una posizione dei risultati del calcolo personalizzati per il notebook, segui i passaggi illustrati in questa sezione. Se hai scelto **Use defaults** (Utilizza valori predefiniti) per l'opzione **Additional configurations** (Configurazioni aggiuntive), salta questa sezione e vai direttamente alla sezione [Passaggio 2: aprire Notebook explorer e cambio del gruppo di lavoro](#notebooks-spark-getting-started-switching-workgroups-and-opening-notebook-explorer).

La procedura seguente presuppone che siano stati completati i passaggi da 1 a 9 della procedura **Creazione di un gruppo di lavoro abilitato a Spark in Athena** della sezione precedente.

**Definizione di configurazioni personalizzate per il gruppo di lavoro**

1. Se desideri creare o utilizzare un ruolo IAM personalizzato o configurare la crittografia dei notebook, espandi **IAM role configuration** (Configurazione del ruolo IAM).
   + Per **Service Role to authorize Athena** scegliere una delle seguenti opzioni:
     + **Create and use a new service role**: scegliere questa opzione affinché Athena crei un ruolo di servizio per tuo conto. Per visualizzare le autorizzazioni concesse dal ruolo, scegli **View permission details** (Visualizza i dettagli delle autorizzazioni).
     + **Choose an existing service role**: dall’elenco a discesa, scegliere un ruolo esistente. Il ruolo scelto deve includere le autorizzazioni nella prima opzione. Per ulteriori informazioni sulle autorizzazioni per i gruppi di lavoro abilitati per i notebook, consulta la pagina [Risolvere problemi relativi ai gruppi di lavoro abilitati per Spark](notebooks-spark-troubleshooting-workgroups.md).
   + In **Notebook and calculation code encryption key management** (Gestione delle chiavi di crittografia del codice di calcolo), scegli una delle opzioni seguenti:
     + **Crittografa utilizzando una chiave AWS proprietaria (impostazione predefinita)**: la AWS KMS chiave è di proprietà e gestita da. AWS Non ti viene addebitato alcun costo aggiuntivo per l'utilizzo di questa chiave.
     + **Encrypt using your own AWS KMS key**: per questa opzione, eseguire una delle seguenti operazioni:
       + Per utilizzare una chiave esistente, usa la casella di ricerca per scegliere AWS KMS o immettere una chiave ARN.
       + Per creare una chiave nella AWS KMS console, scegli **Crea una AWS KMS chiave**. Il ruolo di esecuzione deve disporre dell'autorizzazione a utilizzare la chiave che crei. Dopo aver completato la creazione della chiave nella console KMS, torna alla pagina **Crea gruppo di lavoro** nella console Athena, quindi utilizza la casella di ricerca **Scegli una AWS KMS chiave o inserisci un ARN** per scegliere la chiave appena creata.
**Importante**  
Quando modifichi la [AWS KMS key](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html) per un gruppo di lavoro, i notebook gestiti prima dell'aggiornamento continuano a fare riferimento alla vecchia chiave KMS. I notebook gestiti dopo l'aggiornamento utilizzano la nuova chiave KMS. Per aggiornare i vecchi notebook in modo che facciano riferimento alla nuova chiave KMS, esporta e quindi importa ciascuno dei vecchi notebook. Se elimini la vecchia chiave KMS prima di aggiornare i riferimenti dei vecchi notebook alla nuova chiave KMS, i vecchi notebook non saranno più decifrabili e non potranno essere recuperati.  
Questo comportamento si applica anche agli aggiornamenti degli [alias](https://docs.aws.amazon.com/kms/latest/developerguide/kms-alias.html), che sono nomi semplici per le chiavi KMS. Quando si aggiorna un alias di chiave KMS in modo che punti a una nuova chiave KMS, i notebook gestiti prima dell'aggiornamento dell'alias fanno ancora riferimento alla vecchia chiave KMS, mentre i notebook gestiti dopo l'aggiornamento dell'alias utilizzano la nuova chiave KMS. Tieni a mente questi aspetti prima di aggiornare le chiavi o gli alias KMS. 

1. <a name="notebook-gs-metrics"></a>(Facoltativo) **Altre impostazioni**: espandi questa opzione per abilitare o disabilitare l'opzione **Pubblica CloudWatch metriche per il gruppo** di lavoro. Questo campo è selezionato per impostazione predefinita. Per ulteriori informazioni, consulta [Monitora Apache Spark con metriche CloudWatch](notebooks-spark-metrics.md).

1. (Facoltativo) **Tags** (Tag): utilizza questa opzione per aggiungere tag al gruppo di lavoro. Per ulteriori informazioni, consulta [Assegnare tag alle risorse di Athena](tags.md).

1. Selezionare **Create workgroup (Crea gruppo di lavoro)**. Un messaggio informa che il gruppo di lavoro è stato creato correttamente e il gruppo di lavoro viene visualizzato nell'elenco dei gruppi di lavoro.

## Passaggio 2: aprire Notebook explorer e cambio del gruppo di lavoro
<a name="notebooks-spark-getting-started-switching-workgroups-and-opening-notebook-explorer"></a>

Prima di poter utilizzare il gruppo di lavoro abilitato a Spark che hai appena creato, devi passare a tale gruppo di lavoro. Per passare da un gruppo di lavoro abilitato a Spark a un altro, puoi utilizzare l'opzione **Workgroup** (Gruppo di lavoro) in Notebook explorer o Notebook editor (Editor notebook).

**Nota**  
Prima di iniziare, verifica che il tuo browser non blocchi i cookie di terzi. Qualsiasi browser che blocca i cookie di terze parti per impostazione predefinita o abilitata dall'utente impedirà l'avvio di notebook. Per ulteriori informazioni sulla gestione dei cookie, consulta:  
[Chrome](https://support.alertlogic.com/hc/en-us/articles/360018127132-Turn-Off-Block-Third-Party-Cookies-in-Chrome-for-Windows)
[Firefox](https://support.mozilla.org/en-US/kb/third-party-cookies-firefox-tracking-protection)
[Safari](https://support.apple.com/guide/safari/manage-cookies-sfri11471/mac)

**Apertura di Notebook explorer e cambio del gruppo di lavoro**

1. Nel pannello di navigazione, scegli **Notebook explorer**.

1. Usa l'opzione **Workgroup** (Gruppo di lavoro) nell'angolo in alto a destra della console per scegliere il gruppo di lavoro abilitato a Spark che hai creato. Il notebook di esempio è mostrato nell'elenco dei notebook.

   Puoi utilizzare Notebook explorer nei modi seguenti:
   + Scegli il nome con collegamento di un notebook per aprirlo in una nuova sessione.
   + Per rinominare, eliminare o esportare il tuo notebook, utilizza il menu **Actions** (Operazioni).
   + Per importare un file del notebook, scegli **Import file** (Importa file).
   + Per creare un notebook, scegli **Create notebook** (Crea notebook).

## Passaggio 3: eseguire il notebook di esempio
<a name="notebooks-spark-getting-started-running-the-example-notebook"></a>

Il notebook di esempio richiama i dati da un set di dati di viaggi in taxi a New York City disponibile al pubblico. Il taccuino contiene esempi che mostrano come lavorare con Spark DataFrames, Spark SQL e. AWS Glue Data Catalog

**Esecuzione del notebook di esempio**

1. In Notebook explorer, scegli il nome collegato del notebook di esempio.

   Questo avvia una sessione del notebook con i parametri predefiniti e apre il notebook nell'editor notebook. Un messaggio informa che è stata avviata una nuova sessione di Apache Spark utilizzando i parametri predefiniti (massimo 20). DPUs

1. Per eseguire le celle in ordine e visualizzare i risultati, premi il pulsante **Run** (Esegui) una volta per ogni cella del notebook. 
   + Scorri verso il basso per vedere i risultati e visualizzare nuove celle.
   + Per le celle che contengono un calcolo, una barra di avanzamento mostra la percentuale di completamento, il tempo trascorso e il tempo rimanente.
   + Il notebook di esempio crea un database e una tabella nell'account. La cella finale li rimuove come fase di pulizia.

**Nota**  
Se modifichi i nomi di cartelle, tabelle o database nel notebook di esempio, assicurati che tali modifiche si riflettano nei ruoli IAM che utilizzi. In caso contrario, il notebook potrebbe non funzionare a causa di autorizzazioni insufficienti. 

## Passaggio 4: modificare i dettagli della sessione
<a name="notebooks-spark-getting-started-editing-session-details"></a>

Dopo aver avviato una sessione di notebook, è possibile modificare i dettagli della sessione come il formato della tabella, la crittografia, il timeout di inattività della sessione e il numero massimo simultaneo di unità di elaborazione dati (DPUs) che si desidera utilizzare. Una DPU è una misura relativa della potenza di elaborazione costituita da 4 V di capacità CPUs di elaborazione e 16 GB di memoria.

**Modifica dei dettagli della sessione**

1. Nell'editor notebook, nel menu **Session** (Sessione) in alto a destra, scegli **Edit session** (Modifica sessione).

1. Nella finestra di dialogo **Modifica dettagli sessione**, nella sezione **Proprietà Spark**, scegli o inserisci i valori per le seguenti opzioni:
   + **Formato di tabella aggiuntivo**: seleziona **Linux Foundation Delta Lake**, **Apache Hudi**, **Apache Iceberg** oppure **Personalizzato**.
     + Per le opzioni di tabella **Delta**, **Hudi** o **Iceberg**, le proprietà di tabella richieste per il formato di tabella corrispondente vengono fornite automaticamente nelle opzioni **Edit in table** e **Edit in JSON**. Per ulteriori informazioni sull'utilizzo di queste tabelle, consulta [Utilizzare formati di tabella non Hive in Athena per Spark](notebooks-spark-table-formats.md).
     + Per aggiungere o rimuovere proprietà di tabella per i tipi di tabella **Personalizzata** o di altro tipo, utilizzate le opzioni **Modifica nella tabella** e **Modifica in JSON**.
     + Per l'opzione **Modifica nella tabella**, seleziona **Aggiungi proprietà** per aggiungere una proprietà o **Rimuovi** per rimuovere una proprietà. Per immettere i nomi delle proprietà e i relativi valori, utilizzate le caselle **Chiave** e **Valore**.
     + Per l'opzione **Modifica in JSON**, utilizzate l'editor di testo JSON per modificare direttamente la configurazione.
       + Per copiare il testo JSON negli appunti, seleziona **Copia**.
       + Per rimuovere tutto il testo dall'editor JSON, scegli **Cancella**.
       + Per configurare la disposizione delle linee o scegliere un tema di colore per l'editor JSON, scegli l'icona delle impostazioni (a forma di ingranaggio).
   + **Attiva la crittografia Spark -**: seleziona questa opzione per crittografare i dati scritti su disco e inviati tramite i nodi di rete Spark. Per ulteriori informazioni, consulta [Abilitare la crittografia Apache Spark](notebooks-spark-encryption.md).

1. Nella sezione **Parametri sessione** scegli o inserisci i valori per le seguenti opzioni:
   + **Session idle timeout** (Timeout di inattività della sessione): scegli o inserisci un valore compreso tra 1 e 480 minuti. Il valore di default è 20.
   + **Coordinator size** (Dimensione del coordinatore): un *coordinatore* è un esecutore speciale che orchestra il lavoro di elaborazione e gestisce altri esecutori in una sessione di notebook. Attualmente, 1 DPU è il valore predefinito nonché l'unico possibile.
   + **Executor size** (Dimensioni dell'esecutore): un *esecutore* è l'unità di calcolo più piccola che una sessione di notebook può richiedere ad Athena. Attualmente, 1 DPU è il valore predefinito nonché l'unico possibile.
   + **Valore simultaneo massimo**: il numero massimo di elementi DPUs che possono essere eseguiti contemporaneamente. Il valore predefinito 20, il valore minimo è 3 e il valore massimo è 60. L'aumento di questo valore non alloca automaticamente risorse aggiuntive, ma Athena tenterà di allocare fino al massimo specificato quando il carico di elaborazione lo richiede e quando le risorse sono disponibili.

1. Scegli **Save** (Salva).

1. Alla richiesta **Confirm edit** (Conferma modifica), scegli **Confirm** (Conferma).

   Athena salva il notebook e avvia una nuova sessione con i parametri specificati. Un banner nell'editor notebook informa che è iniziata una nuova sessione con i parametri modificati.
**Nota**  
Athena ricorda le impostazioni della sessione per il notebook. Se modifichi i parametri di una sessione e poi la termini, Athena utilizza i parametri di sessione che hai configurato la volta successiva che avvii una sessione del notebook. 

## Passaggio 5: visualizzare i dettagli della sessione e del calcolo
<a name="notebooks-spark-getting-started-viewing-session-and-calculation-details"></a>

Dopo avere eseguito il notebook, è possibile visualizzare i dettagli della sessione e del calcolo.

**Visualizzazione dei dettagli della sessione e del calcolo**

1. Dal menu **Session** (Sessione) in alto a destra, scegli **View details (Visualizza dettagli**).
   + La scheda **Current session** (Sessione corrente) mostra informazioni sulla sessione corrente, tra cui l'ID della sessione, l'ora di creazione, lo stato e il gruppo di lavoro.
   + La scheda **Cronologia** elenca la sessione delle sessioni IDs precedenti. Per visualizzare i dettagli di una sessione precedente, scegli la scheda **History** (Cronologia), quindi scegli un ID di sessione nell'elenco.
   + La sezione **Calculations** (Calcoli) mostra un elenco dei calcoli eseguiti durante la sessione.

1. Per visualizzare i dettagli di un calcolo, scegli l'ID del calcolo.

1. Nella pagina **Calculation details** (Dettagli del calcolo), è possibile eseguire le seguenti operazioni:
   + Per visualizzare il codice per il calcolo, consulta la sezione **Code** (Codice).
   + Per visualizzare i risultati del calcolo, scegli la scheda **Results** (Risultati).
   + Per scaricare i risultati visualizzati in formato di testo, scegli **Download results** (Scarica risultati).
   + Per visualizzare informazioni sui risultati del calcolo in Amazon S3, scegli **View in S3** (Visualizza in S3).

## Passaggio 6: terminare la sessione
<a name="notebooks-spark-getting-started-terminating-a-session"></a>

**Per terminare una sessione del notebook**

1. Nell'editor notebook, nel menu **Session** (Sessione) in alto a destra, scegli **Terminate** (Termina).

1. Alla richiesta **Confirm session termination** (Conferma chiusura della sessione), scegli **Confirm** (Conferma). Il notebook viene salvato e si torna all'editor notebook.

**Nota**  
La chiusura di una scheda del notebook nell'editor notebook non interrompe la sessione di un notebook attivo. Se vuoi assicurarti che la sessione venga terminata, utilizza l'opzione **Session** (Sessione), **Terminate** (Termina).

## Passaggio 7: creare il proprio notebook
<a name="notebooks-spark-getting-started-creating-your-own-notebook"></a>

Dopo avere creato un gruppo di lavoro Athena, puoi creare il tuo notebook.

**Creazione di un notebook**

1. Se il pannello di navigazione della console non è visibile, scegli il menu di espansione a sinistra.

1. Nel pannello di navigazione della console Athena, scegli **Notebook explorer** o **Notebook editor** (Editor notebook).

1. Esegui una delle seguenti operazioni:
   + In **Notebook explorer**, scegli **Create notebook** (Crea notebook).
   + In **Notebook editor** (Editor notebook), scegli **Create notebook** (Crea notebook) oppure seleziona l'icona con il segno più (**\$1**) per aggiungere un notebook.

1. Nella finestra di dialogo **Create notebook** (Crea notebook), per **Notebook name** (Nome del notebook) inserisci un nome.

1. (Facoltativo) Espandi **Proprietà Spark**, quindi scegli o inserisci i valori per le seguenti opzioni:
   + **Formato di tabella aggiuntivo**: seleziona **Linux Foundation Delta Lake**, **Apache Hudi**, **Apache Iceberg**, oppure **Personalizzato**.
     + Per le opzioni di tabella **Delta**, **Hudi** o **Iceberg**, le proprietà di tabella richieste per il formato di tabella corrispondente vengono fornite automaticamente nelle opzioni **Edit in table** e **Edit in JSON**. Per ulteriori informazioni sull'utilizzo di queste tabelle, consulta [Utilizzare formati di tabella non Hive in Athena per Spark](notebooks-spark-table-formats.md).
     + Per aggiungere o rimuovere proprietà di tabella per i tipi di tabella **Personalizzata** o di altro tipo, utilizzate le opzioni **Modifica nella tabella** e **Modifica in JSON**.
     + Per l'opzione **Modifica nella tabella**, seleziona **Aggiungi proprietà** per aggiungere una proprietà o **Rimuovi** per rimuovere una proprietà. Per immettere i nomi delle proprietà e i relativi valori, utilizzate le caselle **Chiave** e **Valore**.
     + Per l'opzione **Modifica in JSON**, utilizzate l'editor di testo JSON per modificare direttamente la configurazione.
       + Per copiare il testo JSON negli appunti, seleziona **Copia**.
       + Per rimuovere tutto il testo dall'editor JSON, scegli **Cancella**.
       + Per configurare la disposizione delle linee o scegliere un tema di colore per l'editor JSON, scegli l'icona delle impostazioni (a forma di ingranaggio).
   + **Attiva la crittografia Spark -**: seleziona questa opzione per crittografare i dati scritti su disco e inviati tramite i nodi di rete Spark. Per ulteriori informazioni, consulta [Abilitare la crittografia Apache Spark](notebooks-spark-encryption.md).

1. (Facoltativo) Espandi **Session parameters** (Parametri della sessione), quindi scegli o inserisci i valori per le seguenti opzioni:
   + **Session idle timeout** (Timeout di inattività della sessione): scegli o inserisci un valore compreso tra 1 e 480 minuti. Il valore di default è 20.
   + **Coordinator size** (Dimensione del coordinatore): un *coordinatore* è un esecutore speciale che orchestra il lavoro di elaborazione e gestisce altri esecutori in una sessione di notebook. Attualmente, 1 DPU è il valore predefinito nonché l'unico possibile. Una DPU (unità di elaborazione dati) è una misura relativa della potenza di elaborazione costituita da 4 V CPUs di capacità di elaborazione e 16 GB di memoria.
   + **Executor size** (Dimensioni dell'esecutore): un *esecutore* è l'unità di calcolo più piccola che una sessione di notebook può richiedere ad Athena. Attualmente, 1 DPU è il valore predefinito nonché l'unico possibile.
   + **Valore simultaneo massimo**: il numero massimo di elementi DPUs che possono essere eseguiti contemporaneamente. Il valore predefinito è 20 e il valore massimo è 60. L'aumento di questo valore non alloca automaticamente risorse aggiuntive, ma Athena tenterà di allocare fino al massimo specificato quando il carico di elaborazione lo richiede e quando le risorse sono disponibili.

1. Scegli **Create** (Crea). Il notebook si apre in una nuova sessione nell'editor di notebook.

Per informazioni sulla gestione dei file di notebook, consulta la pagina [Gestire i file del notebook](notebooks-spark-managing.md).