

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Creazione di un data lake da una sorgente JDBC in Lake Formation
<a name="getting-started-tutorial-jdbc"></a>

Questo tutorial illustra i passaggi da eseguire sulla AWS Lake Formation console per creare e caricare il primo data lake da una sorgente JDBC utilizzando Lake Formation. 

**Topics**
+ [Destinatari principali](#tut-personas)
+ [Prerequisiti del tutorial JDBC](#tut-prereqs)
+ [Fase 1: Creare un utente analista di dati](#tut-create-lf-user)
+ [Fase 2: Creare una connessione in AWS Glue](#tut-connection)
+ [Fase 3: creare un bucket Amazon S3 per il data lake](#tut-create-bucket)
+ [Fase 4: Registrare un percorso Amazon S3](#tut-register)
+ [Passaggio 5: concedere le autorizzazioni per la localizzazione dei dati](#tut-data-location)
+ [Fase 6: Creare un database nel Data Catalog](#tut-create-db)
+ [Passaggio 7: concedere le autorizzazioni per i dati](#tut-grant-data-permissions)
+ [Fase 8: Utilizzare un blueprint per creare un flusso di lavoro](#tut-create-workflow)
+ [Passaggio 9: Esegui il flusso di lavoro](#tut-run-workflow)
+ [Fase 10: concedere SELECT sui tavoli](#tut-grant-select)
+ [Passaggio 11: interrogare il data lake utilizzando Amazon Athena](#tut-query-athena)
+ [Passaggio 12: interroga i dati nel data lake utilizzando Amazon Redshift Spectrum](#tut-query-redshift)
+ [Passaggio 13: concedere o revocare le autorizzazioni di Lake Formation utilizzando Amazon Redshift Spectrum](#getting-started-tutorial-grant-revoke-redshift)

## Destinatari principali
<a name="tut-personas"></a>

La tabella seguente elenca i ruoli utilizzati in questo tutorial [AWS Lake Formation JDBC](#getting-started-tutorial-jdbc).


| Ruolo | Description | 
| --- | --- | 
| Amministratore IAM | Un utente che può creare utenti e ruoli AWS Identity and Access Management (IAM) e bucket Amazon Simple Storage Service (Amazon S3). Ha la politica AdministratorAccess AWS gestita. | 
| Amministratore del data lake | Un utente che può accedere al Data Catalog, creare database e concedere autorizzazioni Lake Formation ad altri utenti. Dispone di meno autorizzazioni IAM rispetto all'amministratore IAM, ma sufficienti per amministrare il data lake. | 
| Analista dei dati | Un utente che può eseguire query sul data lake. Dispone solo delle autorizzazioni sufficienti per eseguire le query. | 
| Ruolo del workflow | Un ruolo con le politiche IAM richieste per eseguire un flusso di lavoro. | 

Per informazioni sui prerequisiti per il completamento del tutorial, consulta[Prerequisiti del tutorial JDBC](#tut-prereqs).

## Prerequisiti del tutorial JDBC
<a name="tut-prereqs"></a>

Prima di iniziare il [tutorial su AWS Lake Formation JDBC](#getting-started-tutorial-jdbc), assicurati di aver fatto quanto segue:
+ Completare le operazioni descritte in [Guida introduttiva a Lake Formation](getting-started-setup.md).
+ Scegli un archivio dati accessibile con JDBC che desideri utilizzare per il tutorial.
+ Raccogli le informazioni necessarie per creare una AWS Glue connessione di tipo JDBC. Questo oggetto Data Catalog include l'URL del data store, le credenziali di accesso e, se il data store è stato creato in un Amazon Virtual Private Cloud (Amazon VPC), informazioni di configurazione aggiuntive specifiche per VPC. *Per ulteriori informazioni, consulta [Definizione delle connessioni nel catalogo AWS Glue dati nella Guida per gli sviluppatori](https://docs.aws.amazon.com/glue/latest/dg/populate-add-connection.html).AWS Glue *

Il tutorial presuppone che tu abbia familiarità con AWS Identity and Access Management (IAM). Per informazioni su IAM, consulta la [IAM User Guide](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html).

Per iniziare, procedi a[Fase 1: Creare un utente analista di dati](#tut-create-lf-user).

## Fase 1: Creare un utente analista di dati
<a name="tut-create-lf-user"></a>

In questo passaggio, crei un utente AWS Identity and Access Management (IAM) che funga da analista di dati per il tuo data lake in. AWS Lake Formation

Questo utente dispone del set minimo di autorizzazioni per interrogare il data lake.

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam](https://console.aws.amazon.com/iam). Accedi come utente amministratore che hai creato [Crea un utente con accesso amministrativo](getting-started-setup.md#create-an-admin) o come utente con la policy `AdministratorAccess` AWS gestita.

1. Crea un utente denominato `datalake_user` con le seguenti impostazioni:
   + Abilita Console di gestione AWS l'accesso.
   + Imposta una password e non richiedi la reimpostazione della password.
   + Allega la politica `AmazonAthenaFullAccess` AWS gestita.
   + Allega la seguente politica in linea. Assegnare un nome alla policy `DatalakeUserBasic`.

     ```
     {
         "Version": "2012-10-17",		 	 	 
         "Statement": [
             {
                 "Effect": "Allow",
                 "Action": [
                     "lakeformation:GetDataAccess",
                     "glue:GetTable",
                     "glue:GetTables",
                     "glue:SearchTables",
                     "glue:GetDatabase",
                     "glue:GetDatabases",
                     "glue:GetPartitions",
                     "lakeformation:GetResourceLFTags",
                     "lakeformation:ListLFTags",
                     "lakeformation:GetLFTag",
                     "lakeformation:SearchTablesByLFTags",
                     "lakeformation:SearchDatabasesByLFTags"                
                ],
                 "Resource": "*"
             }
         ]
     }
     ```

## Fase 2: Creare una connessione in AWS Glue
<a name="tut-connection"></a>

**Nota**  
Salta questo passaggio se disponi già di una AWS Glue connessione alla tua fonte di dati JDBC.

AWS Lake Formation *accede alle sorgenti dati JDBC tramite una connessione. AWS Glue* Una connessione è un oggetto Data Catalog che contiene tutte le informazioni necessarie per connettersi all'origine dati. È possibile creare una connessione utilizzando la AWS Glue console.

**Come creare una connessione**

1. Apri AWS Glue la console all'indirizzo [https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/) e accedi come utente amministratore con cui hai creato il file[Crea un utente con accesso amministrativo](getting-started-setup.md#create-an-admin).

1. Nel riquadro di navigazione, in **Data catalog** (Catalogo dati), seleziona **Connections** (Connessioni).

1. Nella pagina **Connettori**, scegli **Crea connessione**.

1. Nella pagina **Scegli l'origine dati**, scegli **JDBC come tipo** di connessione. Quindi scegli **Successivo**.

1. Continua con la procedura guidata di connessione e salva la connessione.

   *Per informazioni sulla creazione di una connessione, consulta le [proprietà della connessione AWS Glue JDBC](https://docs.aws.amazon.com/glue/latest/dg/connection-properties.html#connection-properties-jdbc) nella Guida per gli AWS Glue sviluppatori.*

## Fase 3: creare un bucket Amazon S3 per il data lake
<a name="tut-create-bucket"></a>

In questo passaggio, crei il bucket Amazon Simple Storage Service (Amazon S3) che deve essere la posizione principale del tuo data lake.

1. Apri la console Amazon S3 all'indirizzo [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)e accedi come utente amministratore con cui hai creato. [Crea un utente con accesso amministrativo](getting-started-setup.md#create-an-admin)

1. Scegli **Crea bucket** e segui la procedura guidata per creare un bucket denominato`<yourName>-datalake-tutorial`, dove *<yourName>* sono il tuo nome e cognome. Ad esempio: `jdoe-datalake-tutorial`.

   Per istruzioni dettagliate sulla creazione di un bucket Amazon S3, vedi [Come si crea un bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)? nella *Guida per l'utente di Amazon Simple Storage Service*.

## Fase 4: Registrare un percorso Amazon S3
<a name="tut-register"></a>

In questa fase, registri un percorso Amazon Simple Storage Service (Amazon S3) come posizione principale del tuo data lake.

1. Apri la console Lake Formation all'indirizzo [https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/). Accedi come amministratore del data lake.

1. Nel riquadro di navigazione, in **Amministrazione**, scegli **Posizioni dei data lake**.

1. Scegli **Registra posizione**, quindi scegli **Sfoglia**. 

1. Seleziona il `<yourName>-datalake-tutorial` bucket che hai creato in precedenza, accetta il ruolo IAM predefinito`AWSServiceRoleForLakeFormationDataAccess`, quindi scegli **Registra posizione**.

   Per ulteriori informazioni sulla registrazione delle sedi, consulta. [Aggiungere una posizione Amazon S3 al tuo data lake](register-data-lake.md)

## Passaggio 5: concedere le autorizzazioni per la localizzazione dei dati
<a name="tut-data-location"></a>

I responsabili devono disporre *delle autorizzazioni di localizzazione dei dati su una posizione* di data lake per creare tabelle o database di Data Catalog che puntano a quella posizione. È necessario concedere le autorizzazioni per la localizzazione dei dati al ruolo IAM per i flussi di lavoro in modo che il flusso di lavoro possa scrivere nella destinazione di inserimento dei dati.

1. Sulla console Lake Formation, nel riquadro di navigazione, in **Autorizzazioni**, scegli **Posizioni dati**.

1. Scegliete **Concedi** e, nella finestra di dialogo **Concedi autorizzazioni**, effettuate le seguenti operazioni:

   1. Per **utenti e ruoli IAM**, scegli`LakeFormationWorkflowRole`.

   1. Per le **posizioni di archiviazione**, scegli il tuo `<yourName>-datalake-tutorial` bucket.

1. Scegliere **Concedi**.

Per ulteriori informazioni sulle autorizzazioni per la localizzazione dei dati, consulta. [Underlying data access control](access-control-underlying-data.md#data-location-permissions)

## Fase 6: Creare un database nel Data Catalog
<a name="tut-create-db"></a>

Le tabelle di metadati nel Lake Formation Data Catalog sono archiviate all'interno di un database.

1. Nella console Lake Formation, nel riquadro di navigazione, in **Catalogo dati**, scegli **Databases**.

1. Scegli **Crea database** e in **Dettagli del database**, inserisci il nome`lakeformation_tutorial`.

1. Lascia vuoti gli altri campi e scegli **Crea database**.

## Passaggio 7: concedere le autorizzazioni per i dati
<a name="tut-grant-data-permissions"></a>

È necessario concedere le autorizzazioni per creare tabelle di metadati nel Data Catalog. Poiché il flusso di lavoro viene eseguito con il ruolo`LakeFormationWorkflowRole`, è necessario concedere queste autorizzazioni al ruolo.

1. Nella console Lake Formation, nel riquadro di navigazione, in **Autorizzazioni, scegli Autorizzazioni** **Data lake**.

1. Scegli **Concedi** e nella finestra di dialogo **Concedi le autorizzazioni per i dati**, procedi come segue:

   1. In **Principal**, per **utenti e ruoli IAM, scegli**. `LakeFormationWorkflowRole`

   1. In **LF-Tags o Catalog resources**, scegli **Named data** catalog resources.

   1. Per **Database**, scegli il database che hai creato in precedenza,. `lakeformation_tutorial`

   1. In **Autorizzazioni del database**, seleziona **Crea tabella**, **Alter** e **Drop** e deseleziona **Super** se è selezionato.

1. Scegliere **Concedi**.

Per ulteriori informazioni sulla concessione delle autorizzazioni di Lake Formation, vedere. [Panoramica delle autorizzazioni di Lake Formation](lf-permissions-overview.md)

## Fase 8: Utilizzare un blueprint per creare un flusso di lavoro
<a name="tut-create-workflow"></a>

Il AWS Lake Formation flusso di lavoro genera i AWS Glue job, i crawler e i trigger che rilevano e inseriscono dati nel tuo data lake. Crei un flusso di lavoro basato su uno dei blueprint predefiniti di Lake Formation.

1. Nella console Lake Formation, nel pannello di navigazione, scegli **Blueprints**, quindi scegli **Usa blueprint**.

1. **Nella pagina **Usa un blueprint, in Tipo di blueprint****, scegli Database snapshot**.**

1. In **Origine di importazione**, per **Connessione al database**, scegli la connessione che hai appena creato o scegli una connessione esistente per la tua origine dati. `datalake-tutorial`

1. Per **Percorso dei dati di origine**, inserisci nel modulo `<database>/<schema>/<table>` il percorso da cui importare i dati.

   È possibile sostituire lo schema o la tabella con il carattere jolly percentuale (%). Per i database che supportano gli schemi, inserisci*<database>*/*<schema>*/% per abbinare tutte le tabelle contenute all'interno. *<schema>* *<database>* Oracle Database e MySQL non supportano lo schema nel percorso; inserisci invece /%. *<database>* Per Oracle Database, *<database>* è l'identificatore di sistema (SID).

   Ad esempio, se un database Oracle ha `orcl` come SID, immettilo in modo che `orcl/%` corrisponda a tutte le tabelle a cui ha accesso l'utente specificato nella connessione JDCB.
**Importante**  
Questo campo fa distinzione tra minuscole e maiuscole.

1. In **Import target**, specifica questi parametri:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/lake-formation/latest/dg/getting-started-tutorial-jdbc.html)

1. Per la frequenza di importazione, scegli **Esegui su richiesta**.

1. In **Opzioni di importazione**, specificate questi parametri:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/lake-formation/latest/dg/getting-started-tutorial-jdbc.html)

1. Scegli **Crea** e attendi che la console segnali che il flusso di lavoro è stato creato correttamente.
**Suggerimento**  
Hai ricevuto il seguente messaggio di errore?  
`User: arn:aws:iam::<account-id>:user/<datalake_administrator_user> is not authorized to perform: iam:PassRole on resource:arn:aws:iam::<account-id>:role/LakeFormationWorkflowRole...`  
In tal caso, verifica di aver sostituito *<account-id>* nella politica in linea per l'utente amministratore del data lake un numero di AWS account valido.

## Passaggio 9: Esegui il flusso di lavoro
<a name="tut-run-workflow"></a>

Poiché hai specificato che il flusso di lavoro è run-on-demand, devi avviarlo manualmente in AWS Lake Formation.

1. Nella console Lake Formation, nella pagina **Blueprints**, seleziona il flusso di lavoro`lakeformationjdbctest`.

1. Scegli **Azioni**, quindi scegli **Avvia**.

1. Durante l'esecuzione del flusso di lavoro, visualizzane l'avanzamento nella colonna **Stato dell'ultima esecuzione**. Scegli il pulsante di aggiornamento di tanto in tanto.

   **Lo stato va da **RUNNING**, a **Discovering**, a **Importing**, a COMPLETED.** 

   Quando il flusso di lavoro è completo:
   + Il Data Catalog ha nuove tabelle di metadati.
   + I tuoi dati vengono inseriti nel data lake.

   Se il flusso di lavoro fallisce, procedi come segue:

   1. Seleziona un flusso di lavoro. Scegliete **Azioni**, quindi scegliete **Visualizza grafico**.

      Il flusso di lavoro si apre nella AWS Glue console.

   1. Seleziona il flusso di lavoro e scegli la scheda **Cronologia**.

   1. Seleziona l'esecuzione più recente e scegli **Visualizza i dettagli della corsa**.

   1. Seleziona un processo o un crawler non riuscito nel grafico dinamico (runtime) ed esamina il messaggio di errore. I nodi con errori sono rossi o gialli.

## Fase 10: concedere SELECT sui tavoli
<a name="tut-grant-select"></a>

È necessario concedere l'`SELECT`autorizzazione per le nuove tabelle del Data Catalog in AWS Lake Formation modo che l'analista dei dati possa interrogare i dati a cui puntano le tabelle.

**Nota**  
Un flusso di lavoro concede automaticamente l'`SELECT`autorizzazione per le tabelle che crea all'utente che lo ha eseguito. Poiché l'amministratore del data lake ha eseguito questo flusso di lavoro, è necessario concederlo `SELECT` all'analista dei dati.

1. Nella console Lake Formation, nel riquadro di navigazione, in **Autorizzazioni, scegli Autorizzazioni** **Data lake**.

1. Scegli **Concedi** e nella finestra di dialogo **Concedi le autorizzazioni per i dati**, procedi come segue:

   1. In **Principal**, per **utenti e ruoli IAM, scegli**. `datalake_user`

   1. In **LF-Tags o Catalog resources**, scegli **Named data** catalog resources.

   1. Per **Database, scegliete**. `lakeformation_tutorial`

      Viene compilato l'elenco **Tabelle**.

   1. Per **Tabelle**, scegli una o più tabelle dalla tua fonte di dati.

   1. In **Autorizzazioni per tabelle e colonne**, scegli **Seleziona**.

1. Scegliere **Concedi**.

**Il passaggio successivo viene eseguito come analista dei dati.** 

## Passaggio 11: interrogare il data lake utilizzando Amazon Athena
<a name="tut-query-athena"></a>

Usa la Amazon Athena console per interrogare i dati nel tuo data lake.

1. Apri la console Athena all'indirizzo e accedi come analista di dati [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home), utente. `datalake_user`

1. Se necessario, scegli **Inizia** per passare all'editor di query Athena.

1. Per **Origine dati** scegliere **AwsDataCatalog**.

1. Per **Database**, scegliere `lakeformation_tutorial`.

   L'elenco delle **tabelle** viene compilato.

1. Nel menu pop-up accanto a una delle tabelle, scegli **Anteprima** tabella.

   La query viene eseguita e visualizza 10 righe di dati.

## Passaggio 12: interroga i dati nel data lake utilizzando Amazon Redshift Spectrum
<a name="tut-query-redshift"></a>

Puoi configurare Amazon Redshift Spectrum per interrogare i dati che hai importato nel tuo data lake Amazon Simple Storage Service (Amazon S3). Innanzitutto, crea un ruolo AWS Identity and Access Management (IAM) da utilizzare per avviare il cluster Amazon Redshift e per interrogare i dati di Amazon S3. Quindi, concedi a questo ruolo le `Select` autorizzazioni sulle tabelle che desideri interrogare. Quindi, concedi all'utente le autorizzazioni per utilizzare l'editor di query di Amazon Redshift. Infine, crea un cluster Amazon Redshift ed esegui le query.

Crei il cluster come amministratore e interroghi il cluster come analista di dati.

Per ulteriori informazioni su Amazon Redshift Spectrum, [consulta Using Amazon Redshift Spectrum to External Data nella Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/c-using-spectrum.html) Database *Developer Guide*.

**Per configurare le autorizzazioni per eseguire query Amazon Redshift**

1. Aprire la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/). Accedi come utente amministratore in cui hai creato [Crea un utente con accesso amministrativo](getting-started-setup.md#create-an-admin) (nome utente`Administrator`) o come utente con la `AdministratorAccess` AWS policy gestita.

1. Nel pannello di navigazione, selezionare **Policy**.

   Se è la prima volta che selezioni **Policy**, verrà visualizzata la pagina **Benvenuto nelle policy gestite**. Seleziona **Inizia**.

1. Scegli **Crea policy**. 

1. Scegliere la scheda **JSON**.

1. Incolla il seguente documento di policy JSON.

   ```
   {
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Effect": "Allow",
               "Action": [
                   "lakeformation:GetDataAccess",
                   "glue:GetTable",
                   "glue:GetTables",
                   "glue:SearchTables",
                   "glue:GetDatabase",
                   "glue:GetDatabases",
                   "glue:GetPartitions",
                   "lakeformation:GetResourceLFTags",
                   "lakeformation:ListLFTags",
                   "lakeformation:GetLFTag",
                   "lakeformation:SearchTablesByLFTags",
                   "lakeformation:SearchDatabasesByLFTags"                
              ],
               "Resource": "*"
           }
       ]
   }
   ```

1. Una volta terminato, selezionare **Review (Rivedi)** per rivedere la policy. In Validatore di policy vengono segnalati eventuali errori di sintassi.

1. Nella pagina **Rivedi la politica**, inserisci **RedshiftLakeFormationPolicy** il **nome** della politica che stai creando. (Opzionale) Immettere una **Description (descrizione)**. Consulta il **Riepilogo** della policy per visualizzare le autorizzazioni concesse dalla policy. Seleziona **Create policy** (Crea policy) per salvare il proprio lavoro. 

1. Nel pannello di navigazione della console IAM, scegliere **Ruoli** e quindi **Crea ruolo**.

1. In **Seleziona tipo di entità attendibile**, scegli ** Servizio AWS **.

1. Scegliere il servizio Amazon Redshift per assumere questo ruolo.

1. Selezionare il caso d'uso **Redshift Customizable (Redshift personalizzabile)** per il servizio. Quindi scegliere **Next: Permissions (Successivo: Autorizzazioni)**.

1. Cerca la politica di autorizzazione che hai creato e seleziona la casella di controllo accanto al nome della politica nell'elenco. `RedshiftLakeFormationPolicy`

1. Scegliere **Next: Tags (Successivo: Tag)**.

1. Scegliere **Next:Review (Successivo: Rivedi)**. 

1. In **Role name (Nome ruolo)**, inserire il nome **RedshiftLakeFormationRole**. 

1. (Facoltativo) In **Descrizione ruolo**, immettere una descrizione per il nuovo ruolo.

1. Verificare il ruolo e quindi scegliere **Create role (Crea ruolo)**.

**Per concedere `Select` le autorizzazioni sulla tabella da interrogare nel database Lake Formation**

1. Apri la console Lake Formation all'indirizzo [https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/). Accedi come amministratore del data lake.

1. **Nel riquadro di navigazione, in **Autorizzazioni**, scegli **Autorizzazioni Data lake**, quindi scegli Concedi.**

1. Inserisci le informazioni che seguono:
   + Per **gli utenti e i ruoli IAM**, scegli il ruolo IAM che hai creato,. `RedshiftLakeFormationRole` Quando si esegue l'editori di query di Amazon Redshift, utilizzare il ruolo IAM per le autorizzazioni ai dati. 
   + Per **Database**, scegliere `lakeformation_tutorial`.

     L'elenco delle tabelle viene compilato.
   + Per **Tabella**, scegli una tabella all'interno della fonte di dati da interrogare.
   + Scegliete l'autorizzazione **Seleziona** tabella.

1. Scegliere **Concedi**.

**Per configurare Amazon Redshift Spectrum ed eseguire query**

1. Apri la console Amazon Redshift all'indirizzo. [https://console.aws.amazon.com/redshift](https://console.aws.amazon.com/redshift) Accedi come utente`Administrator`.

1. Scegli **Crea cluster**.

1. Nella pagina **Crea cluster**, inserisci `redshift-lakeformation-demo` l'**identificatore del cluster**.

1. Per il **tipo di nodo**, seleziona **dc2.large**.

1. Scorri verso il basso e, in **Configurazioni del database**, inserisci o accetta questi parametri:
   + **Nome utente dell'amministratore**: `awsuser`
   + **Password utente amministratore**: `(Choose a password)`

1. Espandi **le autorizzazioni del cluster** e, per i **ruoli IAM disponibili**, scegli **RedshiftLakeFormationRole**. Scegli **Add IAM role (Aggiungi ruolo IAM)**.

1. Se devi utilizzare una porta diversa dal valore predefinito 5439, accanto a **Configurazioni aggiuntive**, disattiva l'opzione **Usa** valori predefiniti. **Espandi la sezione relativa **alle configurazioni del database** e inserisci un nuovo numero di porta del database.**

1. Scegli **Crea cluster**.

   Viene caricata la pagina **Cluster**.

1. Attendi che lo stato del cluster diventi **Disponibile.** Scegli periodicamente l'icona di aggiornamento.

1. Concedi all'analista dei dati l'autorizzazione a eseguire query sul cluster. Per fare ciò, completare questa procedura:

   1. Apri la console IAM all'indirizzo [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)e accedi come utente. `Administrator`

   1. Nel riquadro di navigazione, scegli **Utenti** e allega all'utente le seguenti politiche gestite`datalake_user`.
      + `AmazonRedshiftQueryEditor`
      + `AmazonRedshiftReadOnlyAccess` 

1. Esci dalla console Amazon Redshift e accedi nuovamente come utente. `datalake_user`

1. Nella barra degli strumenti verticale a sinistra, scegli l'icona **EDITOR** per aprire l'editor di query e connetterti al cluster. Se viene visualizzata la finestra di dialogo **Connetti al database**, scegliete il nome `redshift-lakeformation-demo` del cluster e immettete il nome **dev** del database**awsuser**, il nome utente e la password che avete creato. Quindi scegli **Connect to database (Collegati al database)**.
**Nota**  
Se non ti vengono richiesti i parametri di connessione e nell'editor di query è già selezionato un altro cluster, scegli **Cambia connessione** per aprire la finestra di dialogo **Connetti al database**.

1. Nella casella di testo **New Query 1**, inserisci ed esegui la seguente istruzione per mappare il database `lakeformation_tutorial` in Lake Formation al nome dello schema Amazon Redshift: `redshift_jdbc`
**Importante**  
Sostituiscilo *<account-id>* con un numero di AWS account valido e *<region>* con un nome di AWS regione valido (ad esempio,`us-east-1`).

   ```
   create external schema if not exists redshift_jdbc from DATA CATALOG database 'lakeformation_tutorial' iam_role 'arn:aws:iam::<account-id>:role/RedshiftLakeFormationRole' region '<region>';
   ```

1. Nell'elenco degli schemi in **Seleziona schema**, scegliete **redshift\$1jdbc**.

   L'elenco delle tabelle viene compilato. L'editor di query mostra solo le tabelle su cui ti sono state concesse le autorizzazioni per il data lake di Lake Formation.

1. Nel menu a comparsa accanto al nome di una tabella, scegli **Anteprima** dati.

   Amazon Redshift restituisce le prime 10 righe.

   Ora puoi eseguire query sulle tabelle e sulle colonne per le quali disponi delle autorizzazioni.

## Passaggio 13: concedere o revocare le autorizzazioni di Lake Formation utilizzando Amazon Redshift Spectrum
<a name="getting-started-tutorial-grant-revoke-redshift"></a>

Amazon Redshift supporta la possibilità di concedere e revocare le autorizzazioni Lake Formation su database e tabelle utilizzando istruzioni SQL modificate. Queste dichiarazioni sono simili alle dichiarazioni esistenti di Amazon Redshift. Per ulteriori informazioni, consulta [GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html) and [REVOKE](https://docs.aws.amazon.com/redshift/latest/dg/r_REVOKE.html) nella *Amazon Redshift* Database Developer Guide. 