Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Considerazioni e limitazioni relative all'utilizzo del connettore Spark
-
Ti consigliamo di attivare SSL per la connessione JDBC da Spark su Amazon EMR ad Amazon Redshift.
-
Ti suggeriamo di gestire le credenziali per il cluster Amazon Redshift come AWS Secrets Manager best practice. Per un esempio, consulta Utilizzo AWS Secrets Manager per recuperare le credenziali per la connessione ad Amazon Redshift.
-
Ti suggeriamo di passare un ruolo IAM con il parametro
aws_iam_roleper il parametro di autenticazione Amazon Redshift. -
Il parametro
tempformatattualmente non supporta il formato Parquet. -
L'URI
tempdirindica una posizione Amazon S3. Questa directory temporanea non viene pulita in automatico e quindi potrebbe generare costi aggiuntivi. -
Prendi in considerazione i seguenti consigli per Amazon Redshift:
-
Ti suggeriamo di bloccare l'accesso pubblico al cluster Amazon Redshift.
-
Ti consigliamo di attivare la registrazione di controllo di Amazon Redshift.
-
Ti consigliamo di attivare la crittografia at-rest di Amazon Redshift.
-
-
Prendi in considerazione i seguenti consigli per Amazon S3:
-
Ti consigliamo di bloccare l'accesso pubblico ai bucket Amazon S3.
-
Ti consigliamo di utilizzare la crittografia lato server di Amazon S3 per crittografare i bucket Amazon S3 utilizzati.
-
Ti suggeriamo di utilizzare le policy del ciclo di vita di Amazon S3 per definire le regole di conservazione per il bucket Amazon S3.
-
Amazon EMR verifica sempre il codice importato dall'open source nell'immagine. Per motivi di sicurezza, non supportiamo i seguenti metodi di autenticazione da Spark ad Amazon S3:
-
Impostazione delle chiavi di AWS accesso nella classificazione della configurazione
hadoop-env -
Codifica delle chiavi di AWS accesso nell'URI
tempdir
-
-
Per ulteriori informazioni sull'utilizzo del connettore e dei parametri supportati, consulta le seguenti risorse:
-
Amazon Redshift integration for Apache Spark (Integrazione di Amazon Redshift per Apache Spark) nella Guida alla gestione di Amazon Redshift
-
Il repository della community
spark-redshiftsu Github