

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Versioni di rilascio di Amazon EMR 6.x
<a name="emr-release-6x"></a>

Questa sezione contiene le versioni dell'applicazione, le note di rilascio, le versioni dei componenti e le classificazioni di configurazione disponibili in ogni versione di rilascio di Amazon EMR 6x.

Quando si avvia un cluster, è possibile scegliere tra diversi rilasci di Amazon EMR. In questo modo l'utente può testare e utilizzare le versioni dell'applicazione che soddisfano i propri requisiti di compatibilità. È possibile specificare il numero di rilascio con *l'etichetta del rilascio*. Le etichette di rilascio sono sotto forma di `emr-x.x.x` Ad esempio, `emr-7.12.0`.

I nuovi rilasci di Amazon EMR diventano disponibili in Regioni differenti nell'arco di alcuni giorni, a partire dalla prima Regione alla data del rilascio iniziale. La versione più recente potrebbe non essere disponibile nella tua Regione durante questo periodo.

Per una tabella completa delle versioni delle applicazioni in ogni versione di Amazon EMR 6.x, consulta [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md).

**Topics**
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Amazon EMR versione 6.15.0](emr-6150-release.md)
+ [Rilascio 6.14.0 di Amazon EMR](emr-6140-release.md)
+ [Versione 6.13.0 di Amazon EMR](emr-6130-release.md)
+ [Versione 6.12.0 di Amazon EMR](emr-6120-release.md)
+ [Versione 6.11.1 di Amazon EMR](emr-6111-release.md)
+ [Versione 6.11.0 di Amazon EMR](emr-6110-release.md)
+ [Versione 6.10.1 di Amazon EMR](emr-6101-release.md)
+ [Versione 6.10.0 di Amazon EMR](emr-6100-release.md)
+ [Versione 6.9.1 di Amazon EMR](emr-691-release.md)
+ [Amazon EMR rilascio 6.9.0](emr-690-release.md)
+ [Versione 6.8.1 di Amazon EMR](emr-681-release.md)
+ [Amazon EMR versione 6.8.0](emr-680-release.md)
+ [Rilascio 6.7.0 di Amazon EMR](emr-670-release.md)
+ [Rilascio 6.6.0 di Amazon EMR](emr-660-release.md)
+ [Rilascio 6.5.0 di Amazon EMR](emr-650-release.md)
+ [Rilascio 6.4.0 di Amazon EMR](emr-640-release.md)
+ [Rilascio 6.3.1 di Amazon EMR](emr-631-release.md)
+ [Rilascio 6.3.0 di Amazon EMR](emr-630-release.md)
+ [Rilascio 6.2.1 di Amazon EMR](emr-621-release.md)
+ [Rilascio 6.2.0 di Amazon EMR](emr-620-release.md)
+ [Rilascio 6.1.1 di Amazon EMR](emr-611-release.md)
+ [Rilascio 6.1.0 di Amazon EMR](emr-610-release.md)
+ [Rilascio 6.0.1 di Amazon EMR](emr-601-release.md)
+ [Rilascio 6.0.0 di Amazon EMR](emr-600-release.md)

# Versioni dell'applicazione nei rilasci di Amazon EMR 6.x
<a name="emr-release-app-versions-6.x"></a>

Nella tabella seguente sono elencate le versioni dell'applicazione disponibili in ogni versione di Amazon EMR 6.x.


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK per Java | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1,12,513 | 1,12,490 | 1,12,446 | 1,12446 | 1,12.397 | 1,12.397 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,31 | 1,12,31 | 1,11,977 | 1,11,977 | 1,11,80 | 1,11,80 | 1,11,828 | 1,11,828 | 1,11,711 | 1,11,711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 2,11,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4,7,1 | 4,7,1 | 4.4.0 | 4.4.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 29.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 350 | 350 | 343 | 343 | 338 | 338 |  -  |  -  | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3,5,7 | 3,5,7 | 3,5,7 | 3,5,7 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

# Amazon EMR versione 6.15.0
<a name="emr-6150-release"></a>

## Versioni dell'applicazione 6.15.0
<a name="emr-6150-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1,12,513 | 1,12,490 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.15.0
<a name="emr-6150-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.15.0 di Amazon EMR. Le modifiche sono relative alla versione 6.14.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.15.0](#6150-changelog).

**Nuove funzionalità**
+ **Aggiornamenti delle applicazioni** – Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426.
+ **[Avvio più rapido per i cluster EMR in esecuzione su EC2](https://aws.amazon.com/about-aws/whats-new/2023/11/amazon-emr-ec2-clusters-5-minutes-less/)**: ora avviare un Amazon EMR su cluster EC2 è fino al 35% più veloce. Grazie a questo miglioramento, la maggior parte dei clienti può avviare i propri cluster in 5 minuti o meno.
+ **[CodeWhisperer per EMR Studio](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-codewhisperer.html)**: ora puoi usare Amazon con CodeWhisperer Amazon EMR Studio per ottenere consigli in tempo reale durante la scrittura del codice. JupyterLab CodeWhisperer puoi completare i tuoi commenti, completare singole righe di codice, line-by-line formulare consigli e generare funzioni complete.
+ **[Tempi di riavvio dei processi più rapidi con Flink](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-restart.html)**: con Amazon EMR 6.15.0 e versioni successive, sono disponibili diversi nuovi meccanismi per Apache Flink per migliorare il tempo di riavvio del lavoro durante le operazioni di ripristino delle attività o di scalabilità. Ciò ottimizza la velocità di ripristino e riavvio dei grafici di esecuzione per migliorare la stabilità del lavoro.
+ **[Controllo degli accessi a livello di tabella e granulare per formati a tabella aperta:](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lf-enable.html)** con Amazon EMR 6.15.0 e versioni successive, quando esegui job Spark su Amazon EMR su cluster EC2 che accedono ai dati nel Glue Data Catalog, AWS Lake Formation puoi utilizzare per applicare autorizzazioni a AWS livello di tabella, riga, colonna e cella su tabelle basate su Hudi, Iceberg o Delta Lake.
+ **Aggiornamento Hadoop**: Amazon EMR 6.15.0 include un aggiornamento di Apache Hadoop alla versione 3.3.6. Hadoop 3.3.6 era la versione più recente al momento dell'implementazione di Amazon EMR 6.15, rilasciata da Apache nel giugno 2023. Le versioni precedenti di Amazon EMR (da 6.9.0 a 6.14.x) utilizzavano Hadoop 3.3.3.

  L'aggiornamento include centinaia di miglioramenti e correzioni, oltre a funzionalità che includono parametri di datanode riconfigurabili, l'opzione `DFSAdmin` per avviare operazioni di riconfigurazione in blocco su tutti i datanode attivi e un'API vettoriale che consente ai lettori con esigenze elevate di specificare più intervalli da leggere. Hadoop 3.3.6 aggiunge anche il supporto per HDFS APIs e la semantica per il suo write-ahead log (WAL), in modo che HBase possa essere eseguito su altre implementazioni di sistemi di storage. Per ulteriori informazioni, consulta i log delle modifiche per le versioni [3.3.4](https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/release/3.3.4/CHANGELOG.3.3.4.html), [3.3.5](https://hadoop.apache.org/docs/r3.3.5/hadoop-project-dist/hadoop-common/release/3.3.5/CHANGELOG.3.3.5.html) e [3.3.6](https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/release/3.3.6/CHANGELOG.3.3.6.html) nella *documentazione di Apache Hadoop.*
+ **Supporto per AWS SDK for Java, versione** [2 - Le applicazioni Amazon EMR 6.15.0 possono utilizzare le [versioni](https://github.com/aws/aws-sdk-java/tree/1.12.569) SDK for AWS Java 1.12.569 o 2.20.160 se l'applicazione supporta la v2.](https://github.com/aws/aws-sdk-java-v2/tree/2.20.160) L' AWS SDK for Java 2.x è un'importante riscrittura del codice base della versione 1.x. È stata sviluppata su base Java 8\$1 e aggiunge diverse caratteristiche richieste frequentemente. Queste includono il supporto per I/O senza blocchi e la possibilità di connettere un'implementazione HTTP diversa durante il runtime. Per ulteriori informazioni, inclusa una **Guida alla migrazione da SDK per Java v1 a v2**, consulta la guida [AWS SDK per Java, versione 2](https://docs.aws.amazon.com/sdk-for-java).

**Problemi noti**
+ Uno script dello stato dell'istanza sul cluster che monitora lo stato dell'istanza può consumare risorse di CPU e memoria eccessive quando sul nodo è presente un numero elevato di thread aperti (handle di file). and/or 

**Modifiche, miglioramenti e problemi risolti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 
+ Per migliorare i cluster EMR ad alta disponibilità, questa versione abilita la connettività ai daemon Amazon EMR su host locali che utilizzano endpoint IPv6.
+ Questa versione abilita TLS 1.2 per la comunicazione con ZooKeeper provisioned su tutti i nodi primari del cluster ad alta disponibilità.
+ Questa versione migliora la gestione dei file di registro delle ZooKeeper transazioni mantenuti sui nodi primari per ridurre al minimo gli scenari in cui i file di registro superano i limiti e interrompono le operazioni del cluster.
+ Questa versione rende la comunicazione tra nodi più resiliente per i cluster EMR ad alta disponibilità. Questo miglioramento riduce la possibilità di errori nelle operazioni di bootstrap o di problemi all'avvio del cluster.
+ Tez in Amazon EMR 6.15.0 introduce configurazioni che puoi specificare per aprire in modo asincrono le suddivisioni di input in una suddivisione raggruppata Tez. Ciò si traduce in prestazioni più rapide delle query di lettura quando è presente un gran numero di suddivisioni di input in una singola suddivisione raggruppata di Tez. Per ulteriori informazioni, consulta la pagina relativa all'[apertura della suddivisione asincrona Tez](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/tez-configure.html#tez-configure-async).
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6150-release.html)

## Versioni Java predefinite 6.15.0
<a name="emr-6150-jdk"></a>

Amazon EMR versione 6.12.0 e successive supporta tutte le applicazioni con Amazon Corretto 8 per impostazione predefinita, ad eccezione di Trino. Per Trino, Amazon EMR supporta Amazon Corretto 17 per impostazione predefinita a partire dalla versione 6.9.0 di Amazon EMR. Amazon EMR supporta anche alcune applicazioni con Amazon Corretto 11 e 17. Queste applicazioni sono elencate nella seguente tabella. Se desideri modificare la JVM predefinita sul cluster, segui le istruzioni riportate in [Configurazione delle applicazioni per l'uso di una macchina virtuale Java specifica](configuring-java8.md) per ogni applicazione in esecuzione sul cluster. Puoi utilizzare solo una delle versioni di runtime Java per cluster. Amazon EMR non supporta l'esecuzione di nodi o applicazioni differenti su versioni di runtime diverse sullo stesso cluster.

Sebbene Amazon EMR supporti Amazon Corretto 11 e 17 su Apache Spark, Apache Hadoop e Apache Hive, le prestazioni potrebbero peggiorare per alcuni carichi di lavoro quando utilizzi queste versioni di Corretto. Consigliamo di testare i carichi di lavoro prima di modificare i valori predefiniti.

La seguente tabella mostra le versioni Java predefinite per le applicazioni in Amazon EMR 6.15.0:


| Applicazione | Versione Java/Amazon Corretto (l'impostazione predefinita è in grassetto) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versioni dei componenti 6.15.0
<a name="emr-6150-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.4.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| delta-standalone-connectors | 0.6.0 | I connettori Delta offrono runtime diversi per integrare Delta Lake con motori come Flink, Hive e Presto. | 
| emr-ddb | 5.2.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.8.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.12.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.29.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.8.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.2.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,60,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.17.1-amzn-1 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-1 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.6-amzn-1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.6-amzn-1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.6-amzn-1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.17-amzn-3 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.17-amzn-3 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.17-amzn-3 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.17-amzn-3 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.17-amzn-3 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.17-amzn-3 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-8 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-8 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-8 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-8 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-8 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-8 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-8 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.14.0-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.14.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.14.0-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.14.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.11.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.4.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.5.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.3 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.283-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.283-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.283-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 426-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 426-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 426-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.4.1-amzn-2 | Client a riga di comando Spark. | 
| spark-history-server | 3.4.1-amzn-2 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.4.1-amzn-2 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.4.1-amzn-2 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 23.08.1-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-6 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-6 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.15.0
<a name="emr-6150-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.15.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modifica la home Java KMS di Hadoop | Not available. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.15.0
<a name="6150-changelog"></a>


**Log delle modifiche per la versione 6.15.0 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2025-09-03 | Revisione dei documenti | Le note di rilascio di Amazon EMR 6.15.0 hanno aggiunto un problema noto | 
| 2023-11-17 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.15.0 | 
| 2023-11-17 | Implementazione completata | [Amazon EMR 6.15.0 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-11-13 | Rilascio iniziale | Amazon EMR 6.15.0 è stato implementato per la prima volta in regioni commerciali iniziali | 

# Rilascio 6.14.0 di Amazon EMR
<a name="emr-6140-release"></a>

## Versioni dell'applicazione 6.14.0
<a name="emr-6140-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.543 | 1,12,513 | 1,12,490 | 1,12,446 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 
| Flink | 1,17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 
| HCatalog | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hadoop | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 
| Hive | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hudi | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 
| Trino (PrestoSQL) | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.14.0
<a name="emr-6140-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.14.0 di Amazon EMR. Le modifiche sono relative alla versione 6.13.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.14.0](#6140-changelog).

**Nuove funzionalità**
+ Amazon EMR 6.14.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-2, Flink 1.17.1, Iceberg 1.3.1, and Trino 422.
+ La [scalabilità gestita di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) è ora disponibile nella regione `ap-southeast-3` Asia Pacific (Giacarta) per i cluster creati con Amazon EMR 6.14.0 e versioni successive.

**Problemi noti**
+ Uno script dello stato dell'istanza sul cluster che monitora lo stato dell'istanza può consumare risorse di CPU e memoria eccessive quando sul nodo è presente un numero elevato di thread and/or aperti (handle di file).

**Modifiche, miglioramenti e problemi risolti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 
+ La versione 6.14.0 ottimizza la gestione dei log con Amazon EMR in esecuzione su Amazon EC2. Di conseguenza, potresti notare una leggera riduzione dei costi di archiviazione per i log del cluster.
+ La versione 6.14.0 migliora il flusso di lavoro di dimensionamento per tenere conto delle diverse istanze principali che presentano una variazione sostanziale delle dimensioni dei loro volumi Amazon EBS. Questo miglioramento si applica solo ai nodi principali; le operazioni di riduzione delle dimensioni per i nodi di attività non sono influenzate.
+ La versione 6.14.0 migliora il modo in cui Amazon EMR interagisce con applicazioni open source come Apache Hadoop YARN ResourceManager and HDFS NameNode. Questo miglioramento riduce il rischio di ritardi operativi dovuti nel dimensionamento del cluster e mitiga gli errori di avvio dovuti a problemi di connettività con le applicazioni open source.
+ La versione 6.14.0 ottimizza l'installazione delle applicazioni all'avvio del cluster. Ciò migliora i tempi di avvio del cluster per determinate combinazioni di applicazioni Amazon EMR.
+ La versione 6.14.0 corregge un problema a causa del quale le operazioni di riduzione del cluster potrebbero bloccarsi quando un cluster in esecuzione in un VPC con un dominio personalizzato rileva un riavvio del nodo principale o del nodo attività.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6140-release.html)

## Versioni Java predefinite 6.14.0
<a name="emr-6140-jdk"></a>

Amazon EMR versione 6.12.0 e successive supporta tutte le applicazioni con Amazon Corretto 8 per impostazione predefinita, ad eccezione di Trino. Per Trino, Amazon EMR supporta Amazon Corretto 17 per impostazione predefinita a partire dalla versione 6.9.0 di Amazon EMR. Amazon EMR supporta anche alcune applicazioni con Amazon Corretto 11 e 17. Queste applicazioni sono elencate nella seguente tabella. Se desideri modificare la JVM predefinita sul cluster, segui le istruzioni riportate in [Configurazione delle applicazioni per l'uso di una macchina virtuale Java specifica](configuring-java8.md) per ogni applicazione in esecuzione sul cluster. Puoi utilizzare solo una delle versioni di runtime Java per cluster. Amazon EMR non supporta l'esecuzione di nodi o applicazioni differenti su versioni di runtime diverse sullo stesso cluster.

Sebbene Amazon EMR supporti Amazon Corretto 11 e 17 su Apache Spark, Apache Hadoop e Apache Hive, le prestazioni potrebbero peggiorare per alcuni carichi di lavoro quando utilizzi queste versioni di Corretto. Consigliamo di testare i carichi di lavoro prima di modificare i valori predefiniti.

La seguente tabella mostra le versioni Java predefinite per le applicazioni in Amazon EMR 6.14.0:


| Applicazione | Versione Java/Amazon Corretto (l'impostazione predefinita è in grassetto) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versioni dei componenti 6.14.0
<a name="emr-6140-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.4.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| delta-standalone-connectors | 0.6.0 | I connettori Delta offrono runtime diversi per integrare Delta Lake con motori come Flink, Hive e Presto. | 
| emr-ddb | 5.1.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.7.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.11.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.28.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.7.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.1.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,59,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.17.1-amzn-0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1,17.1-amzn-0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-6 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-6 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-6 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-6 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-6 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-6 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-6 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-6 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-6 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-6 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-6 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.17-amzn-2 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.17-amzn-2 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.17-amzn-2 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.17-amzn-2 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.17-amzn-2 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.17-amzn-2 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-7 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-7 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-7 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-7 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-7 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-7 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-7 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.13.1-amzn-2 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.13.1-amzn-2 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.13.1-amzn-2 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.13.1-amzn-2 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.11.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.3.1-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.5.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.3 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.281-amzn-2 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.281-amzn-2 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.281-amzn-2 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 422-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 422-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 422-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.4.1-amzn-1 | Client a riga di comando Spark. | 
| spark-history-server | 3.4.1-amzn-1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.4.1-amzn-1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.4.1-amzn-1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 23.06.0-amzn-2 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-5 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-5 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.14.0
<a name="emr-6140-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.14.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modifica la home Java KMS di Hadoop | Not available. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.14.0
<a name="6140-changelog"></a>


**Log delle modifiche per la versione 6.14.0 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2025-09-03 | Revisione dei documenti | Le note di rilascio di Amazon EMR 6.14.0 hanno aggiunto un problema noto | 
| *2023-11-02* | Implementazione completata | [Amazon EMR 6.14.0 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-10-10 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.14.0 | 
| 2023-10-04 | Rilascio iniziale | Amazon EMR 6.14.0 è stato implementato per la prima volta in regioni commerciali iniziali | 

# Versione 6.13.0 di Amazon EMR
<a name="emr-6130-release"></a>

## Versioni dell'applicazione 6.13.0
<a name="emr-6130-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.513 | 1,12,490 | 1,12,446 | 1,12446 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 
| HCatalog | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hadoop | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 
| Hive | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hudi | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 
| Trino (PrestoSQL) | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.13.0
<a name="emr-6130-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.13.0 di Amazon EMR. Le modifiche sono relative alla versione 6.12.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.13.0](#6130-changelog).

**Nuove funzionalità**
+ Amazon EMR 6.13.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-1, CUDA Toolkit 11.8.0, and JupyterHub 1.5.0.

**Problemi noti**
+ Uno script dello stato dell'istanza sul cluster che monitora lo stato dell'istanza può consumare risorse di CPU e memoria eccessive quando sul nodo è presente un numero elevato di thread and/or aperti (handle di file).

**Modifiche, miglioramenti e problemi risolti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 
+ La versione 6.13.0 migliora il daemon di gestione dei log di Amazon EMR per garantire che tutti i log vengano caricati a cadenza regolare su Amazon S3 quando viene emesso un comando di terminazione del cluster. Ciò facilita le terminazioni più rapide dei cluster.
+ La versione 6.13.0 migliora le funzionalità di gestione dei log di Amazon EMR per garantire il caricamento coerente e tempestivo di tutti i file di log su Amazon S3. Ciò avvantaggia in particolare i cluster EMR di lunga durata.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6130-release.html)

## Versioni Java predefinite 6.13.0
<a name="emr-6130-jdk"></a>

Amazon EMR versione 6.12.0 e successive supporta tutte le applicazioni con Amazon Corretto 8 per impostazione predefinita, ad eccezione di Trino. Per Trino, Amazon EMR supporta Amazon Corretto 17 per impostazione predefinita a partire dalla versione 6.9.0 di Amazon EMR. Amazon EMR supporta anche alcune applicazioni con Amazon Corretto 11 e 17. Queste applicazioni sono elencate nella seguente tabella. Se desideri modificare la JVM predefinita sul cluster, segui le istruzioni riportate in [Configurazione delle applicazioni per l'uso di una macchina virtuale Java specifica](configuring-java8.md) per ogni applicazione in esecuzione sul cluster. Puoi utilizzare solo una delle versioni di runtime Java per cluster. Amazon EMR non supporta l'esecuzione di nodi o applicazioni differenti su versioni di runtime diverse sullo stesso cluster.

Sebbene Amazon EMR supporti Amazon Corretto 11 e 17 su Apache Spark, Apache Hadoop e Apache Hive, le prestazioni potrebbero peggiorare per alcuni carichi di lavoro quando utilizzi queste versioni di Corretto. Consigliamo di testare i carichi di lavoro prima di modificare i valori predefiniti.

La seguente tabella mostra le versioni Java predefinite per le applicazioni in Amazon EMR 6.13.0:


| Applicazione | Versione Java/Amazon Corretto (l'impostazione predefinita è in grassetto) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versioni dei componenti 6.13.0
<a name="emr-6130-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.4.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| delta-standalone-connectors | 0.6.0 | I connettori Delta offrono runtime diversi per integrare Delta Lake con motori come Flink, Hive e Presto. | 
| emr-ddb | 5.1.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.6.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.10.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.27.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.6.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.1.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,58,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.17.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-5 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-5 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-5 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-5 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-5 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-5 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-5 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-5 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-5 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-5 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-5 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.17-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.17-amzn-1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.17-amzn-1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.17-amzn-1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.17-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.17-amzn-1 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-6 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-6 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-6 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-6 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-6 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-6 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-6 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.13.1-amzn-1 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.13.1-amzn-1 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.13.1-amzn-1 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.13.1-amzn-1 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.11.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.3.0-amzn-1 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.5.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.3 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.281-amzn-1 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.281-amzn-1 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.281-amzn-1 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 414-amzn-1 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 414-amzn-1 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 414-amzn-1 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.4.1-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.4.1-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.4.1-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.4.1-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 23.06.0-amzn-1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-4 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-4 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.13.0
<a name="emr-6130-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.13.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modifica la home Java KMS di Hadoop | Not available. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.13.0
<a name="6130-changelog"></a>


**Log delle modifiche per la versione 6.13.0 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2025-09-03 | Revisione dei documenti | Le note di rilascio di Amazon EMR 6.13.0 hanno aggiunto un problema noto | 
| *23/09/23* | Implementazione completata | [Amazon EMR 6.13.0 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-09-12 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.13.0 | 
| 2023-09-01 | Rilascio iniziale | Amazon EMR 6.13.0 è stato implementato per la prima volta in regioni commerciali iniziali | 

# Versione 6.12.0 di Amazon EMR
<a name="emr-6120-release"></a>

## Versioni dell'applicazione 6.12.0
<a name="emr-6120-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.490 | 1,12,446 | 1,12446 | 1,12.397 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hadoop | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 
| Hive | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 
| Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 
| Trino (PrestoSQL) | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.12.0
<a name="emr-6120-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.12.0 di Amazon EMR. Le modifiche sono relative alla versione 6.11.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.12.0](#6120-changelog).

**Nuove funzionalità**
+ Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
+ Le versioni 6.12.0 e successive di Amazon EMR supportano l'integrazione LDAP con Apache Livy, Apache Hive through HiveServer 2 ()HS2, Trino, Presto e Hue. Inoltre, puoi installare Apache Spark e Apache Hadoop su un cluster EMR che utilizza 6.12.0 o versioni successive e configurarli per l'utilizzo di LDAP. Per ulteriori informazioni, consulta [Utilizzo dei server Active Directory o LDAP per l'autenticazione con Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/ldap.html).

**Problemi noti**
+ Uno script dello stato dell'istanza sul cluster che monitora lo stato dell'istanza può consumare risorse di CPU e memoria eccessive in presenza di un gran numero di thread aperti, handle di file sul nodo. and/or 

**Modifiche, miglioramenti e problemi risolti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 
+ Le versioni 6.12.0 e successive di Amazon EMR forniscono il supporto di runtime Java 11 per Flink. Per ulteriori informazioni, consulta [Configurazione di Flink per l'esecuzione con Java 11](flink-configure.md#flink-configure-java11).
+ La versione 6.12.0 aggiunge un nuovo meccanismo di tentativi al flusso di lavoro dimensionabile per i cluster EMR che eseguono Presto o Trino. Questo miglioramento riduce il rischio che il ridimensionamento del cluster si blocchi a tempo indeterminato a causa di una singola operazione di ridimensionamento con esito negativo. Inoltre, migliora l'utilizzo del cluster, poiché quest'ultimo aumenta e riduce le proprie dimensioni più rapidamente.
+ La versione 6.12.0 corregge un problema a causa del quale le operazioni di riduzione del cluster potrebbero bloccarsi quando un nodo principale sottoposto a una disattivazione graduale perde integrità per qualsiasi motivo prima della completa disattivazione.
+ La versione 6.12.0 migliora la logica di riduzione del cluster in modo che quest'ultimo non tenti di ridurre i nodi principali al di sotto dell'impostazione del fattore di replica HDFS per il cluster. Ciò è in linea con i requisiti di ridondanza dei dati e riduce la possibilità che un'operazione di dimensionamento si blocchi.
+ La versione 6.12.0 migliora le prestazioni e l'efficienza del servizio di monitoraggio dell'integrità per Amazon EMR aumentando la velocità con cui registra le modifiche di stato per le istanze. Questo miglioramento riduce la possibilità di un peggioramento delle prestazioni per i nodi del cluster che eseguono più strumenti client personalizzati o applicazioni di terze parti.
+ La versione 6.12.0 migliora le prestazioni del daemon di gestione dei log sul cluster per Amazon EMR. Di conseguenza, ci sono meno possibilità di ridurre le prestazioni con i cluster EMR che eseguono fasi con elevata simultaneità.
+ Con la versione 6.12.0 di Amazon EMR, il daemon di gestione dei log è stato aggiornato per identificare tutti i log che sono in uso attivo con handle di file aperti sull'archiviazione dell'istanza locale e i processi associati. Questo aggiornamento garantisce che Amazon EMR elimini correttamente i file e recuperi lo spazio di archiviazione dopo la memorizzazione dei log su Amazon S3.
+ La versione 6.12.0 include un miglioramento del daemon di gestione dei log che elimina le directory delle fasi vuote e inutilizzate nel file system del cluster locale. Un numero eccessivo di directory vuote può ridurre le prestazioni dei daemon Amazon EMR e causare un utilizzo eccessivo del disco.
+ La versione 6.12.0 consente la rotazione dei log di YARN Timeline Server. Ciò riduce al minimo gli scenari di utilizzo eccessivo del disco, in particolare per i cluster di lunga durata.
+ La dimensione predefinita del volume root è aumentata a 15 GB in Amazon EMR 6.10.0 e versioni successive. Le versioni precedenti avevano una dimensione predefinita del volume root di 10 GB.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6120-release.html)

## Versioni Java predefinite 6.12.0
<a name="emr-6120-jdk"></a>

Amazon EMR versione 6.12.0 e successive supporta tutte le applicazioni con Amazon Corretto 8 per impostazione predefinita, ad eccezione di Trino. Per Trino, Amazon EMR supporta Amazon Corretto 17 per impostazione predefinita a partire dalla versione 6.9.0 di Amazon EMR. Amazon EMR supporta anche alcune applicazioni con Amazon Corretto 11 e 17. Queste applicazioni sono elencate nella seguente tabella. Se desideri modificare la JVM predefinita sul cluster, segui le istruzioni riportate in [Configurazione delle applicazioni per l'uso di una macchina virtuale Java specifica](configuring-java8.md) per ogni applicazione in esecuzione sul cluster. Puoi utilizzare solo una delle versioni di runtime Java per cluster. Amazon EMR non supporta l'esecuzione di nodi o applicazioni differenti su versioni di runtime diverse sullo stesso cluster.

Sebbene Amazon EMR supporti Amazon Corretto 11 e 17 su Apache Spark, Apache Hadoop e Apache Hive, le prestazioni potrebbero peggiorare per alcuni carichi di lavoro quando utilizzi queste versioni di Corretto. Consigliamo di testare i carichi di lavoro prima di modificare i valori predefiniti.

La seguente tabella mostra le versioni Java predefinite per le applicazioni in Amazon EMR 6.12.0:


| Applicazione | Versione Java/Amazon Corretto (l'impostazione predefinita è in grassetto) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versioni dei componenti 6.12.0
<a name="emr-6120-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.4.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| delta-standalone-connectors | 0.6.0 | I connettori Delta offrono runtime diversi per integrare Delta Lake con motori come Flink, Hive e Presto. | 
| emr-ddb | 5.1.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.5.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.9.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.26.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.5.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.1.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,57,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.17.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-4 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-4 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-4 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-4 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-4 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-4 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-4 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-4 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-4 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-4 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.17-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.17-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.17-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.17-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.17-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.17-amzn-0 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-5 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-5 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-5 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-5 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-5 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-5 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-5 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.13.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.13.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.13.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.13.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.11.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.3.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.3 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.281-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.281-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.281-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 414-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 414-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 414-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.4.0-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.4.0-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.4.0-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.4.0-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 23.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-3 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-3 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.12.0
<a name="emr-6120-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.12.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modifica la home Java KMS di Hadoop | Not available. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.12.0
<a name="6120-changelog"></a>


**Log delle modifiche per la versione 6.12.0 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2025-09-03 | Revisione dei documenti | Le note di rilascio di Amazon EMR 6.12.0 hanno aggiunto un problema noto | 
| 2023-07-27 | Aggiorna documentazione | Aggiorna le opzioni di Java per la versione 6.12 e aggiungi il tutorial di Oozie per aggiornare la JVM | 
| 2023-07-21 | Implementazione completata | [Amazon EMR 6.12.0 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-07-21 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.12.0 | 
| 2023-07-12 | Rilascio iniziale | Amazon EMR 6.12.0 è stato implementato per la prima volta in regioni commerciali iniziali | 

# Versione 6.11.1 di Amazon EMR
<a name="emr-6111-release"></a>

## Versioni dell'applicazione 6.11.1
<a name="emr-6111-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/),, [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/),, [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.446 | 1,12446 | 1,12.397 | 1,12.397 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 
| HCatalog | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hadoop | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 
| Hive | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hudi | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.11.1
<a name="emr-6111-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.11.1 di Amazon EMR. Le modifiche sono relative alla versione 6.11.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.11.1](#6111-changelog).

**Modifiche, miglioramenti e problemi risolti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 
+ A causa di un conflitto di blocco, un nodo può entrare in una situazione di stallo se viene aggiunto o rimosso contemporaneamente al tentativo di disattivazione. Di conseguenza, Hadoop Resource Manager (YARN) non risponde e influisce su tutti i container in entrata e quelli attualmente in esecuzione.
+ Questa versione include una modifica che consente ai cluster ad alta disponibilità di ripristinare lo stato di errore dopo il riavvio.
+ Questa versione include correzioni di sicurezza per Hue e. HBase
+ Questa versione corregge un problema per cui i cluster che eseguono carichi di lavoro su Spark con Amazon EMR potrebbero ricevere silenziosamente risultati errati con `contains`, `startsWith`, `endsWith` e `like`. Questo problema si verifica quando utilizzi le espressioni su campi partizionati che contengono metadati in Amazon EMR Hive3 Metastore Server (HMS).
+ Questa versione corregge un problema di limitazione (della larghezza di banda della rete) sul lato Glue quando non sono presenti funzioni definite dall'utente (UDF).
+ Questa versione corregge un problema che comporta l'eliminazione dei log dei container tramite il servizio di aggregazione dei log dei nodi prima che il pusher possa inviarli a S3 in caso di disattivazione di YARN.
+ Questa versione corregge un problema con le metriche di FairShare Scheduler quando Node Label è abilitato per Hadoop.
+ Questa versione corregge un problema che influiva sulle prestazioni di Spark quando veniva impostato un valore `true` predefinito per la configurazione di `spark.yarn.heterogeneousExecutors.enabled` in `spark-defaults.conf`.
+ Questa versione corregge un problema a causa del quale Reduce Task non era in grado di leggere i dati shuffle. Il problema ha causato errori nelle query di Hive con un errore di memoria danneggiata.
+ Questa versione aggiunge un nuovo meccanismo di tentativi al flusso di lavoro dimensionabile per i cluster EMR che eseguono Presto o Trino. Questo miglioramento riduce il rischio che il ridimensionamento del cluster si blocchi a tempo indeterminato a causa di una singola operazione di ridimensionamento con esito negativo. Inoltre, migliora l'utilizzo del cluster, poiché quest'ultimo aumenta e riduce le·proprie·dimensioni più rapidamente.
+ Questa versione migliora la logica di riduzione del cluster in modo che quest'ultimo non tenti di ridurre i nodi principali al di sotto dell'impostazione del fattore di replica HDFS per il cluster. Ciò è in linea con i requisiti di ridondanza dei dati e riduce la possibilità che un'operazione di dimensionamento si blocchi.
+ Il daemon di gestione dei log è stato aggiornato per identificare tutti i log che sono in uso attivo con handle di file aperti sull'archiviazione dell'istanza locale e i processi associati. Questo aggiornamento garantisce che Amazon EMR elimini correttamente i file e recuperi lo spazio di archiviazione dopo la memorizzazione dei log su Amazon S3.
+ Questa versione include un miglioramento del daemon di gestione dei log che elimina le directory delle fasi vuote e inutilizzate nel file system del cluster locale. Un numero eccessivo di directory vuote può ridurre le prestazioni dei daemon Amazon EMR e causare un utilizzo eccessivo del disco.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6111-release.html)

## Versioni dei componenti 6.11.1
<a name="emr-6111-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.2.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| delta-standalone-connectors | 0.6.0 | I connettori Delta offrono runtime diversi per integrare Delta Lake con motori come Flink, Hive e Presto. | 
| emr-ddb | 5.1.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.4.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.8.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.25.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.4.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.1.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,56,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.16.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-3.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-3.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-3.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.15-amzn-1.1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.15-amzn-1.1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.15-amzn-1.1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.15-amzn-1.1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.15-amzn-1.1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.15-amzn-1.1 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-4.1 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-4.1 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4.1 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-4.1 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-4.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-4.1 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-4.1 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.13.0-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.13.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.11.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.2 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.279-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.279-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 410-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 410-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 410-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.2-amzn-0.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.2-amzn-0.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.2-amzn-0.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 23.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-2.1 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-2.1 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.11.1
<a name="emr-6111-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.11.1**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.11.1
<a name="6111-changelog"></a>


**Log delle modifiche per la versione 6.11.1 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-30 | Aggiorna le note di rilascio | Aggiunte diverse correzioni relative al piano di controllo alle note di rilascio | 
| 2023-08-21 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.11.1 | 
| 2023-08-16 | Implementazione completata | [Amazon EMR 6.11.1 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Rilascio iniziale | Implementazione di Amazon EMR 6.11.1 in alcune regioni commerciali | 

# Versione 6.11.0 di Amazon EMR
<a name="emr-6110-release"></a>

## Versioni dell'applicazione 6.11.0
<a name="emr-6110-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/),, [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.446 | 1,12.397 | 1,12.397 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hadoop | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 
| Hive | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hudi | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.11.0
<a name="emr-6110-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.11.0 di Amazon EMR. Le modifiche sono relative alla versione 6.10.0. Per ulteriori informazioni sulla tempistica di rilascio, consulta il [log delle modifiche](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6110-release.html#6110-changelog).

**Nuove funzionalità**
+ Amazon EMR 6.11.0 supporta Apache Spark 3.3.2-amzn-0, Apache Spark RAPIDS 23.02.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.0-amzn-0, Apache Iceberg 1.2.0-amzn-0, Trino 410-amzn-0 e PrestoDB 0.279-amzn-0.

**Modifiche, miglioramenti e problemi risolti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 
+ Con Amazon EMR 6.11.0, il connettore DynamoDB è stato aggiornato alla versione 5.0.0. La versione 5.0.0 utilizza. AWS SDK for Java 2.x Le versioni precedenti utilizzavano 1.x AWS SDK per Java . Come risultato di questo aggiornamento, consigliamo vivamente di testare il codice prima di utilizzare il connettore DynamoDB con Amazon EMR 6.11.
+ Quando il connettore DynamoDB per Amazon EMR 6.11.0 chiama il servizio DynamoDB, utilizza il valore della regione fornito per la proprietà di `dynamodb.endpoint`. Consigliamo di configurare anche `dynamodb.region` quando utilizzi `dynamodb.endpoint` e che entrambe le proprietà abbiano come destinazione la stessa Regione AWS. Se lo utilizzi `dynamodb.endpoint` e non lo configuri`dynamodb.region`, il connettore DynamoDB per Amazon EMR 6.11.0 restituirà un'eccezione Region non valida e tenterà di riconciliare le tue informazioni Regione AWS dal servizio di metadati dell'istanza Amazon EC2 (IMDS). Se il connettore non è in grado di recuperare la regione da IMDS, il valore predefinito è Stati Uniti orientali (Virginia settentrionale) (`us-east-1`). L'errore seguente è un esempio dell'eccezione Region non valida che potresti ottenere se non configuri correttamente la `dynamodb.region` proprietà: `error software.amazon.awssdk.services.dynamodb.model.DynamoDbException: Credential should be scoped to a valid region.` Per ulteriori informazioni sulle classi interessate dall' AWS SDK per Java aggiornamento a 2.x, consulta il commit [Upgrade AWS SDK per Java from 1.x to 2.x (\$1175) nel GitHub repository per](https://github.com/awslabs/emr-dynamodb-connector/commit/1dec9d1972d3673c3fae6c6ea51f19f295147ccf) il connettore Amazon EMR - DynamoDB.
+ Questa versione corregge un problema per cui i dati diventano `NULL` quando utilizzi Delta Lake per archiviare i dati delle tabelle Delta in Amazon S3 dopo l'operazione di ridenominazione delle colonne. Per ulteriori informazioni su questa funzionalità sperimentale di Delta Lake, consulta [Operazione di ridenominazione delle colonne](https://docs.delta.io/latest/delta-batch.html#rename-columns) nella Guida per l'utente di Delta Lake.
+ La versione 6.11.0 corregge un problema che potrebbe verificarsi quando si crea un nodo edge replicando uno dei nodi primari da un cluster con più nodi primari. Il nodo edge replicato potrebbe causare ritardi nelle operazioni di riduzione o comportare un elevato utilizzo della memoria sui nodi primari. Per ulteriori informazioni su come creare un nodo perimetrale per comunicare con il cluster EMR, vedere [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) nel `aws-samples` repository su. GitHub
+ La versione 6.11.0 migliora il processo di automazione utilizzato da Amazon EMR per rimontare i volumi Amazon EBS su un'istanza dopo un riavvio.
+ La versione 6.11.0 corregge un problema che causava lacune intermittenti nelle metriche Hadoop pubblicate da Amazon EMR su Amazon. CloudWatch
+ La versione 6.11.0 corregge un problema con i cluster EMR per cui un aggiornamento del file di configurazione YARN che contiene l'elenco di esclusione dei nodi per il cluster viene interrotto a causa dell'eccessivo utilizzo del disco. L'aggiornamento incompleto ostacola le future operazioni di riduzione del cluster. Questa versione garantisce l'integrità del cluster e il corretto funzionamento delle operazioni di dimensionamento.
+ La dimensione predefinita del volume root è aumentata a 15 GB in Amazon EMR 6.10.0 e versioni successive. Le versioni precedenti avevano una dimensione predefinita del volume root di 10 GB.
+ Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. Questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

  Con le versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` è impostato su `false` in `yarn-site.xml` per risolvere questo problema.

  Sebbene la correzione si occupi dei problemi introdotti da YARN-9608, potrebbe influire sulla corretta esecuzione dei processi di Hive a causa della perdita dei dati shuffle sui cluster con Scalabilità gestita abilitata. In questa versione abbiamo mitigato tale rischio impostando anche `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` per i carichi di lavoro di Hive. Questa configurazione è disponibile solo con Amazon EMR 6.11.0 e versioni successive.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Nota**  
Questa versione non riceve più aggiornamenti automatici delle AMI poiché è stata sostituita da un'altra versione di patch. La versione della patch è indicata dal numero dopo il secondo separatore decimale (`6.8.1`). Per scoprire se stai utilizzando l'ultima versione della patch, controlla le versioni disponibili nella [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulta il menu a discesa **Versione Amazon EMR** quando crei un cluster nella console o utilizzi l'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o l'operazione [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) nella CLI. Per ricevere aggiornamenti sulle nuove versioni, iscriviti al feed RSS nella pagina [Novità](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6110-release.html)

## Versioni dei componenti 6.11.0
<a name="emr-6110-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.2.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| delta-standalone-connectors | 0.6.0 | I connettori Delta offrono runtime diversi per integrare Delta Lake con motori come Flink, Hive e Presto. | 
| emr-ddb | 5.1.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.4.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.8.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.25.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.4.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.1.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,56,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.16.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-3 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-3 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-3 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.15-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.15-amzn-1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.15-amzn-1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.15-amzn-1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.15-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.15-amzn-1 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-4 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-4 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-4 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-4 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-4 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.13.0-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.13.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.11.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.2 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.279-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.279-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 410-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 410-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 410-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.2-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.2-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.2-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 23.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-2 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-2 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.11.0
<a name="emr-6110-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.11.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.11.0
<a name="6110-changelog"></a>


**Log delle modifiche per la versione 6.11.0 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-21 | Aggiorna | Correzione del problema introdotto con Hadoop 3.3.3. | 
| 2023-07-26 | Aggiorna | Nuove etichette della versione del sistema operativo 2.0.20230612.0 e 2.0.20230628.0. | 
| 2023-06-09 | Implementazione completata | [Amazon EMR 6.11.0 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-06-09 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.11.0 | 
| 2023-06-08 | Rilascio iniziale | Amazon EMR 6.11.0 è stato implementato per la prima volta in regioni commerciali iniziali | 

# Versione 6.10.1 di Amazon EMR
<a name="emr-6101-release"></a>

## Versioni dell'applicazione 6.10.1
<a name="emr-6101-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/),, [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.397 | 1,12.397 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 
| HCatalog | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hadoop | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 
| Hive | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hudi | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 
| Trino (PrestoSQL) | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.10.1
<a name="emr-6101-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.10.1 di Amazon EMR. Le modifiche sono relative alla versione 6.10.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.10.1](#6101-changelog).

**Problemi noti**
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 

**Modifiche, miglioramenti e problemi risolti**
+ A causa di un conflitto di blocco, un nodo può entrare in una situazione di stallo se viene aggiunto o rimosso contemporaneamente al tentativo di disattivazione. Di conseguenza, Hadoop Resource Manager (YARN) non risponde e influisce su tutti i container in entrata e quelli attualmente in esecuzione.
+ Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. Questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

  Con le versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` è impostato su `false` in `yarn-site.xml` per risolvere questo problema.

  Sebbene la correzione si occupi dei problemi introdotti da YARN-9608, potrebbe influire sulla corretta esecuzione dei processi di Hive a causa della perdita dei dati shuffle sui cluster con Scalabilità gestita abilitata. In questa versione abbiamo mitigato tale rischio impostando anche `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` per i carichi di lavoro di Hive. Questa configurazione è disponibile solo con Amazon EMR 6.11.0 e versioni successive.
+ Metrics Collector non invia alcun parametro al piano di controllo dopo il failover del nodo primario nei cluster con la configurazione dei gruppi di istanze.
+ Questa versione include una modifica che consente ai cluster ad alta disponibilità di ripristinare lo stato di errore dopo il riavvio.
+ Questa versione include correzioni di sicurezza per Hue e. HBase
+ Questa versione corregge un problema per cui i cluster che eseguono carichi di lavoro su Spark con Amazon EMR potrebbero ricevere silenziosamente risultati errati con `contains`, `startsWith`, `endsWith` e `like`. Questo problema si verifica quando utilizzi le espressioni su campi partizionati che contengono metadati in Amazon EMR Hive3 Metastore Server (HMS).
+ Questa versione corregge un problema di limitazione (della larghezza di banda della rete) sul lato Glue quando non sono presenti funzioni definite dall'utente (UDF).
+ Questa versione corregge un problema che comporta l'eliminazione dei log dei container tramite il servizio di aggregazione dei log dei nodi prima che il pusher possa inviarli a S3 in caso di disattivazione di YARN.
+ Questa versione corregge un problema con le metriche di FairShare Scheduler quando Node Label è abilitato per Hadoop.
+ Questa versione corregge un problema che influiva sulle prestazioni di Spark quando veniva impostato un valore `true` predefinito per la configurazione di `spark.yarn.heterogeneousExecutors.enabled` in `spark-defaults.conf`.
+ Questa versione corregge un problema a causa del quale Reduce Task non era in grado di leggere i dati shuffle. Il problema ha causato errori nelle query di Hive con un errore di memoria danneggiata.
+ Questa versione aggiunge un nuovo meccanismo di tentativi al flusso di lavoro dimensionabile per i cluster EMR che eseguono Presto o Trino. Questo miglioramento riduce il rischio che il ridimensionamento del cluster si blocchi a tempo indeterminato a causa di una singola operazione di ridimensionamento con esito negativo. Inoltre, migliora l'utilizzo del cluster, poiché quest'ultimo aumenta e riduce le·proprie·dimensioni più rapidamente.
+ Questa versione migliora la logica di riduzione del cluster in modo che quest'ultimo non tenti di ridurre i nodi principali al di sotto dell'impostazione del fattore di replica HDFS per il cluster. Ciò è in linea con i requisiti di ridondanza dei dati e riduce la possibilità che un'operazione di dimensionamento si blocchi.
+ Il daemon di gestione dei log è stato aggiornato per identificare tutti i log che sono in uso attivo con handle di file aperti sull'archiviazione dell'istanza locale e i processi associati. Questo aggiornamento garantisce che Amazon EMR elimini correttamente i file e recuperi lo spazio di archiviazione dopo la memorizzazione dei log su Amazon S3.
+ Questa versione include un miglioramento del daemon di gestione dei log che elimina le directory delle fasi vuote e inutilizzate nel file system del cluster locale. Un numero eccessivo di directory vuote può ridurre le prestazioni dei daemon Amazon EMR e causare un utilizzo eccessivo del disco.
+ Questa versione corregge un problema che potrebbe verificarsi quando si crea un nodo edge replicando uno dei nodi primari da un cluster con più nodi primari. Il nodo edge replicato potrebbe causare ritardi nelle operazioni di riduzione o comportare un elevato utilizzo della memoria sui nodi primari. Per ulteriori informazioni su come creare un nodo perimetrale per comunicare con il cluster EMR, vedere [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) nel `aws-samples` repository su. GitHub
+ Questa versione migliora il processo di automazione utilizzato da Amazon EMR per rimontare i volumi Amazon EBS su un'istanza dopo un riavvio.
+ Questa versione corregge un problema che causava lacune intermittenti nelle metriche Hadoop pubblicate da Amazon EMR su Amazon. CloudWatch
+ Questa versione corregge un problema con i cluster EMR per cui un aggiornamento del file di configurazione YARN che contiene l'elenco di esclusione dei nodi per il cluster viene interrotto a causa dell'eccessivo utilizzo del disco. L'aggiornamento incompleto ostacola le future operazioni di riduzione del cluster. Questa versione garantisce l'integrità del cluster e il corretto funzionamento delle operazioni di dimensionamento.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6101-release.html)

## Versioni dei componenti 6.10.1
<a name="emr-6101-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.2.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.3.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.7.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.24.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.3.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.0.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,55,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.16.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-2.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-2.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-2.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.15-amzn-0.1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.15-amzn-0.1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.15-amzn-0.1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.15-amzn-0.1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.15-amzn-0.1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.15-amzn-0.1 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-3.1 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-3.1 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3.1 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-3.1 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-3.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-3.1 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-3.1 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.12.2-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.12.2-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.5.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.278.1-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.278.1-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 403-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 403-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 403-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.1-amzn-0.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.1-amzn-0.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.1-amzn-0.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-1.1 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-1.1 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.10.1
<a name="emr-6101-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.10.1**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.10.1
<a name="6101-changelog"></a>


**Log delle modifiche per la versione 6.10.1 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-30 | Aggiorna le note di rilascio | Aggiunte diverse correzioni relative al piano di controllo alle note di rilascio | 
| 2023-08-21 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.10.1 | 
| 2023-08-16 | Implementazione completata | [Amazon EMR 6.10.1 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Rilascio iniziale | Implementazione di Amazon EMR 6.10.1 in alcune regioni commerciali | 

# Versione 6.10.0 di Amazon EMR
<a name="emr-6100-release"></a>

## Versioni dell'applicazione 6.10.0
<a name="emr-6100-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/),, [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.397 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.1.0 | 2.1.0 |  -  | 
| Flink | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hadoop | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 
| Hive | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hudi | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.10.0 | 2.10.0 | 29.1 | 
| Tez | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 
| Trino (PrestoSQL) | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.10.0
<a name="emr-6100-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.10.0 di Amazon EMR. Le modifiche sono relative alla versione 6.9.0. Per ulteriori informazioni sulla tempistica di rilascio, consulta il [log delle modifiche](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6100-release.html#6100-changelog).

**Nuove funzionalità**
+ Amazon EMR 6.10.0 supporta Apache Spark 3.3.1, Apache Spark RAPIDS 22.12.0, CUDA 11.8.0, Apache Hudi 0.12.2-amzn-0, Apache Iceberg 1.1.0-amzn-0, Trino 403 e PrestoDB 0.278.1.
+ Amazon EMR 6.10.0 include un connettore Trino-Hudi nativo che fornisce l'accesso in lettura ai dati nelle tabelle Hudi. Puoi attivare il connettore con `trino-cli --catalog hudi` e configurarlo in base alle tue esigenze con `trino-connector-hudi`. L'integrazione nativa con Amazon EMR indica che non è più necessario utilizzare `trino-connector-hive` per eseguire query sulle tabelle Hudi. Per un elenco delle configurazioni supportate con il nuovo connettore, consulta la pagina [Connettori Hudi](https://trino.io/docs/current/connector/hudi.html) nella documentazione di Trino.
+ Le versioni 6.10.0 e successive di Amazon EMR supportano l'integrazione di Apache Zeppelin con Apache Flink. Per ulteriori informazioni, consulta [Utilizzo dei processi Flink di Zeppelin in Amazon EMR](flink-zeppelin.md).

**Problemi noti**
+ Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. Questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

  Per risolvere questo problema in Amazon EMR 6.10.0, puoi impostare il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` su `false` in `yarn-site.xml`. Nelle versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, la configurazione è impostata su `false` per impostazione predefinita per risolvere questo problema.
+  *A partire da Spark 3.3.1 (supportato nelle versioni EMR 6.10 e successive), tutti gli executor in un host di decommissioning sono impostati su un nuovo stato, chiamato DECOMMISSIONING. `ExecutorState`* Gli executor in fase di disattivazione non possono essere utilizzati da Yarn per allocare le attività e quindi richiederà nuovi esecutori, se necessario, per le attività da eseguire. Pertanto, se disabiliti Spark DRA mentre usi EMR Managed Scaling, EMR Auto Scaling o qualsiasi meccanismo di ridimensionamento personalizzato sui cluster EMR-EC2, Yarn può richiedere il numero massimo di esecutori consentiti per ogni job. Per evitare questo problema, lascia la `spark.dynamicAllocation.enabled` proprietà impostata su `TRUE` (che è l'impostazione predefinita) quando utilizzi la combinazione di funzionalità sopra riportata. Inoltre, puoi anche impostare vincoli minimi e massimi per l'esecutore impostando i valori `spark.dynamicAllocation.maxExecutors` e `spark.dynamicAllocation.minExecutors` le proprietà per i tuoi job Spark, per limitare il numero di executor allocati durante l'esecuzione del job. 

**Modifiche, miglioramenti e problemi risolti**
+ Amazon EMR 6.10.0 rimuove la dipendenza da `minimal-json.jar` per l'[integrazione Amazon Redshift per Apache Spark](emr-spark-redshift-launch.md) e aggiunge automaticamente i jar necessari relativi a Spark-Redshift al percorso della classe dell'esecutore per Spark: `spark-redshift.jar`, `spark-avro.jar` e `RedshiftJDBC.jar`.
+ La versione 6.10.0 migliora il daemon di gestione dei log sul cluster per monitorare cartelle di log aggiuntive nel cluster EMR. Questo miglioramento riduce al minimo gli scenari di utilizzo eccessivo del disco.
+ La versione 6.10.0 riavvia automaticamente il daemon di gestione dei log sul cluster quando si arresta. Questo miglioramento riduce la possibilità che i nodi appaiano non integri a causa dell'eccessivo utilizzo del disco. 
+ Amazon EMR 6.10.0 supporta gli endpoint regionali per la mappatura degli utenti EMRFS.
+ La dimensione predefinita del volume root è aumentata a 15 GB in Amazon EMR 6.10.0 e versioni successive. Le versioni precedenti avevano una dimensione predefinita del volume root di 10 GB.
+ La versione 6.10.0 corregge un problema che causava il blocco dei processi Spark quando tutti gli esecutori Spark rimanenti si trovavano su un host in fase di disattivazione con il gestore di risorse YARN. 
+ Con le versioni da 6.6.0 a 6.9.x di Amazon EMR, le query INSERT con partizione dinamica e una clausola ORDER BY o SORT BY avranno sempre due riduttori. Questo problema è causato dalla modifica dell'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), che assoggetta l'ottimizzazione dinamica delle partizioni di ordinamento a una decisione basata sui costi. Se il carico di lavoro non richiede l'ordinamento delle partizioni dinamiche, ti consigliamo di impostare la proprietà `hive.optimize.sort.dynamic.partition.threshold` su `-1` per disabilitare la nuova caratteristica e ottenere il numero di riduttori calcolato correttamente. Questo problema è stato corretto in OSS Hive come parte di [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) ed è stato risolto in Amazon EMR 6.10.0.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Nota**  
Questa versione non riceve più aggiornamenti automatici delle AMI poiché è stata sostituita da un'altra versione di patch. La versione della patch è indicata dal numero dopo il secondo separatore decimale (`6.8.1`). Per scoprire se stai utilizzando l'ultima versione della patch, controlla le versioni disponibili nella [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulta il menu a discesa **Versione Amazon EMR** quando crei un cluster nella console o utilizzi l'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o l'operazione [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) nella CLI. Per ricevere aggiornamenti sulle nuove versioni, iscriviti al feed RSS nella pagina [Novità](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-6100-release.html)

## Versioni dei componenti 6.10.0
<a name="emr-6100-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.2.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.3.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.7.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.24.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.3.0 | Connettore di EMR S3Select | 
| emr-wal-cli | 1.0.0 | Interfaccia della linea di comando utilizzata per l'elenco o la cancellazione di emrwal. | 
| emrfs | 2,55,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.16.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-2 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-2 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-2 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.15-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.15-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.15-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.15-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.15-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.15-amzn-0 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-3 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-3 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-3 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-3 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-3 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.12.2-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.12.2-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.5.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11.8.0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.278.1-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.278.1-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 403-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 403-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 403-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.1-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.1-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.1-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-1 | L'applicazione e le librerie tez YARN. | 
| tez-on-worker | 0.10.2-amzn-1 | L'applicazione e le librerie tez YARN per i nodi worker. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.10.0
<a name="emr-6100-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.10.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifica i valori nel file hudi.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifica i valori nel file kms-logback.xml di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.10.0
<a name="6100-changelog"></a>


**Log delle modifiche per la versione 6.10.0 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-21 | Aggiorna | Aggiunto un problema noto introdotto con Hadoop 3.3.3. | 
| 2023-07-26 | Aggiorna | Nuove etichette della versione del sistema operativo 2.0.20230612.0 e 2.0.20230628.0. | 
| -02 | Implementazione completata | [Amazon EMR 6.10 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 13-02 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.10 | 
| 2023-02-27 | Rilascio iniziale | Implementazione di Amazon EMR 6.10 in alcune regioni commerciali | 

# Versione 6.9.1 di Amazon EMR
<a name="emr-691-release"></a>

## Versioni dell'applicazione 6.9.1
<a name="emr-691-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 | 2.1.0 |  -  |  -  | 
| Flink | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 
| HCatalog | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hadoop | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 
| Hive | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hudi | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.10.0 | 29.1 | 29.1 | 
| Tez | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0,10,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Note di rilascio 6.9.1
<a name="emr-691-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.9.1 di Amazon EMR. Le modifiche sono relative alla versione 6.9.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.9.1](#691-changelog).

**Modifiche, miglioramenti e problemi risolti**
+ Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. Questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

  Con le versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` è impostato su `false` in `yarn-site.xml` per risolvere questo problema.

  Sebbene la correzione si occupi dei problemi introdotti da YARN-9608, potrebbe influire sulla corretta esecuzione dei processi di Hive a causa della perdita dei dati shuffle sui cluster con Scalabilità gestita abilitata. In questa versione abbiamo mitigato tale rischio impostando anche `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` per i carichi di lavoro di Hive. Questa configurazione è disponibile solo con Amazon EMR 6.11.0 e versioni successive.
+ Metrics Collector non invia alcun parametro al piano di controllo dopo il failover del nodo primario nei cluster con la configurazione dei gruppi di istanze.
+ Questa versione elimina i nuovi tentativi sulle richieste HTTP con esito negativo agli endpoint di Metrics Collector.
+ Questa versione include una modifica che consente ai cluster ad alta disponibilità di ripristinare lo stato di errore dopo il riavvio.
+ Questa versione corregge un problema in cui grandi dimensioni create dall'utente UIDs causavano eccezioni di overflow.
+ Questa versione corregge i problemi di timeout con il processo di riconfigurazione di Amazon EMR.
+ Questa versione include correzioni di sicurezza.
+ Questa versione corregge un problema per cui i cluster che eseguono carichi di lavoro su Spark con Amazon EMR potrebbero ricevere silenziosamente risultati errati con `contains`, `startsWith`, `endsWith` e `like`. Questo problema si verifica quando utilizzi le espressioni su campi partizionati che contengono metadati in Amazon EMR Hive3 Metastore Server (HMS).
+ Con le versioni da 6.6.0 a 6.9.x di Amazon EMR, le query INSERT con partizione dinamica e una clausola ORDER BY o SORT BY avranno sempre due riduttori. Questo problema è causato dalla modifica dell'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), che assoggetta l'ottimizzazione dinamica delle partizioni di ordinamento a una decisione basata sui costi. Se il carico di lavoro non richiede l'ordinamento delle partizioni dinamiche, ti consigliamo di impostare la proprietà `hive.optimize.sort.dynamic.partition.threshold` su `-1` per disabilitare la nuova caratteristica e ottenere il numero di riduttori calcolato correttamente. Questo problema è stato corretto in OSS Hive come parte di [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) ed è stato risolto in Amazon EMR 6.10.0.
+ Hive potrebbe subire una perdita di dati quando utilizzi HDFS come directory scratch, hai abilitato l'unione di file di piccole dimensioni e la tabella contiene percorsi di partizione statici.
+ Questa versione corregge un problema di prestazioni con Hive se l'unione di file di piccole dimensioni (disabilitata per impostazione predefinita) è abilitata alla fine del processo ETL.
+ Questa versione corregge un problema di limitazione (della larghezza di banda della rete) sul lato Glue quando non sono presenti funzioni definite dall'utente (UDF).
+ Questa versione corregge un problema che comporta l'eliminazione dei log dei container tramite il servizio di aggregazione dei log dei nodi prima che il pusher possa inviarli a S3 in caso di disattivazione di YARN.
+ Questa versione corregge la gestione dei file compattati/archiviati con il tracciamento persistente dei file di archivio per. HBase
+ Questa versione corregge un problema che influiva sulle prestazioni di Spark quando veniva impostato un valore `true` predefinito per la configurazione di `spark.yarn.heterogeneousExecutors.enabled` in `spark-defaults.conf`.
+ Questa versione corregge un problema a causa del quale Reduce Task non era in grado di leggere i dati shuffle. Il problema ha causato errori nelle query di Hive con un errore di memoria danneggiata.
+ Questa versione corregge un problema che causava il fallimento del provider del nodo se il servizio HDFS NameNode (NN) era bloccato in safemode durante la sostituzione del nodo.
+ Questa versione aggiunge un nuovo meccanismo di tentativi al flusso di lavoro dimensionabile per i cluster EMR che eseguono Presto o Trino. Questo miglioramento riduce il rischio che il ridimensionamento del cluster si blocchi a tempo indeterminato a causa di una singola operazione di ridimensionamento con esito negativo. Inoltre, migliora l'utilizzo del cluster, poiché quest'ultimo aumenta e riduce le·proprie·dimensioni più rapidamente.
+ Questa versione migliora la logica di riduzione del cluster in modo che quest'ultimo non tenti di ridurre i nodi principali al di sotto dell'impostazione del fattore di replica HDFS per il cluster. Ciò è in linea con i requisiti di ridondanza dei dati e riduce la possibilità che un'operazione di dimensionamento si blocchi.
+ Il daemon di gestione dei log è stato aggiornato per identificare tutti i log che sono in uso attivo con handle di file aperti sull'archiviazione dell'istanza locale e i processi associati. Questo aggiornamento garantisce che Amazon EMR elimini correttamente i file e recuperi lo spazio di archiviazione dopo la memorizzazione dei log su Amazon S3.
+ Questa versione include un miglioramento del daemon di gestione dei log che elimina le directory delle fasi vuote e inutilizzate nel file system del cluster locale. Un numero eccessivo di directory vuote può ridurre le prestazioni dei daemon Amazon EMR e causare un utilizzo eccessivo del disco.
+ Questa versione corregge un problema che potrebbe verificarsi quando si crea un nodo edge replicando uno dei nodi primari da un cluster con più nodi primari. Il nodo edge replicato potrebbe causare ritardi nelle operazioni di riduzione o comportare un elevato utilizzo della memoria sui nodi primari. Per ulteriori informazioni su come creare un nodo perimetrale per comunicare con il cluster EMR, vedere [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) nel `aws-samples` repository su. GitHub
+ Questa versione migliora il processo di automazione utilizzato da Amazon EMR per rimontare i volumi Amazon EBS su un'istanza dopo un riavvio.
+ Questa versione corregge un problema che causava lacune intermittenti nelle metriche Hadoop pubblicate da Amazon EMR su Amazon. CloudWatch
+ Questa versione corregge un problema con i cluster EMR per cui un aggiornamento del file di configurazione YARN che contiene l'elenco di esclusione dei nodi per il cluster viene interrotto a causa dell'eccessivo utilizzo del disco. L'aggiornamento incompleto ostacola le future operazioni di riduzione del cluster. Questa versione garantisce l'integrità del cluster e il corretto funzionamento delle operazioni di dimensionamento.
+ Questa versione migliora il daemon di gestione dei log sul cluster per monitorare cartelle di log aggiuntive nel cluster EMR. Questo miglioramento riduce al minimo gli scenari di utilizzo eccessivo del disco.
+ Questa versione riavvia automaticamente il daemon di gestione dei log sul cluster quando si arresta. Questo miglioramento riduce il rischio che i nodi appaiano non integri a causa dell'eccessivo utilizzo del disco. 
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-691-release.html)

## Versioni dei componenti 6.9.1
<a name="emr-691-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.1.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.3.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.6.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.23.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.2.0 | Connettore di EMR S3Select | 
| emrfs | 2,54,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.15.2 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-1.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-1.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-1.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.13-amzn-0.1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.13-amzn-0.1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.13-amzn-0.1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.13-amzn-0.1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.13-amzn-0.1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.13-amzn-0.1 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-2.1 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-2.1 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2.1 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-2.1 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-2.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-2.1 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-2.1 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.12.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.12.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11,7,0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.276-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.276-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 398-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 398-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 398-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.0-amzn-1.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.0-amzn-1.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.0-amzn-1.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-0.1 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.9.1
<a name="emr-691-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.9.1**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.9.1
<a name="691-changelog"></a>


**Log delle modifiche per la versione 6.9.1 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-30 | Aggiorna le note di rilascio | Aggiunte diverse correzioni relative al piano di controllo alle note di rilascio | 
| 2023-08-21 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.9.1 | 
| 2023-08-16 | Implementazione completata | [Amazon EMR 6.9.1 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Rilascio iniziale | Implementazione di Amazon EMR 6.9.1 in alcune regioni commerciali | 

# Amazon EMR rilascio 6.9.0
<a name="emr-690-release"></a>

## Versioni dell'applicazione 6.9.0
<a name="emr-690-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 |  -  |  -  |  -  | 
| Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1,14,2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 
| HCatalog | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hadoop | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 
| Hive | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 
| Spark | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 29.1 | 29.1 | 2.4.1 | 
| Tez | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3,5,7 | 

## Note del rilascio 6.9.0
<a name="emr-690-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.9.0. Le modifiche sono relative al rilascio di Amazon EMR 6.8.0. Per ulteriori informazioni sulla tempistica di rilascio, consulta il [log delle modifiche](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-690-release.html#690-changelog).

**Nuove funzionalità**
+ Amazon EMR rilascio 6.9.0 supporta Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 e Tez 0.10.2.
+ Amazon EMR rilascio 6.9.0 include una nuova applicazione open source, [Delta Lake](emr-delta.md) 2.1.0.
+ L'integrazione di Amazon Redshift per Apache Spark è inclusa in Amazon EMR rilascio 6.9.0 e successivi. In precedenza uno strumento open source, l'integrazione nativa è un connettore Spark che è possibile utilizzare per creare applicazioni Apache Spark in grado di leggere e scrivere dati in Amazon Redshift e Amazon Redshift Serverless. Per ulteriori informazioni, consulta [Utilizzo dell'integrazione di Amazon Redshift per Apache Spark su Amazon EMR](emr-spark-redshift.md).
+ Amazon EMR rilascio 6.9.0 aggiunge il supporto per l'archiviazione dei log su Amazon S3 durante la riduzione dei cluster. In precedenza, era possibile archiviare i file di log in Amazon S3 solo durante la terminazione del cluster. La nuova funzionalità garantisce la persistenza su Amazon S3 dei file di log generati nel cluster anche dopo la terminazione del nodo. Per ulteriori informazioni, consulta [Configurazione della registrazione e del debug di cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Per supportare le query di lunga durata, Trino ora include un meccanismo di esecuzione con tolleranza ai guasti. L'esecuzione con tolleranza ai guasti mitiga gli errori delle query ritentando le query non riuscite o le attività dei loro componenti.
+ È possibile utilizzare Apache Flink su Amazon EMR per l'elaborazione `BATCH` e `STREAM` unificata delle tabelle Apache Hive o dei metadati di qualsiasi origine di tabella Flink, come Iceberg, Kinesis o Kafka. Puoi specificare AWS Glue Data Catalog come metastore per Flink utilizzando l'API Console di gestione AWS, AWS CLI o Amazon EMR. Per ulteriori informazioni, consulta [Configurazione di Flink in Amazon EMR](flink-configure.md).
+ Ora puoi specificare i ruoli di runtime AWS Identity and Access Management (IAM) e il controllo degli accessi AWS Lake Formation basato per le query Apache Spark, Apache Hive e Presto su Amazon EMR su cluster EC2 con Amazon AI Studio. SageMaker Per ulteriori informazioni, consulta [Configurazione dei ruoli di runtime per le fasi di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html). 

**Problemi noti**
+ Per Amazon EMR rilascio 6.9.0, Trino non funziona su cluster abilitati per Apache Ranger. Se hai la necessità di utilizzare Trino con Ranger, contatta il [Supporto](https://console.aws.amazon.com/support/home#/).
+ Se utilizzi l'integrazione Amazon Redshift per Apache Spark e disponi di un orario, timetz, timestamp o timestamptz con precisione al microsecondo in formato Parquet, il connettore arrotonda i valori temporali al valore in millisecondi più vicino. Come soluzione alternativa, utilizza il parametro `unload_s3_format` del formato di scaricamento del testo.
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.
+ **Le connessioni ai cluster Amazon EMR da Amazon SageMaker AI Studio possono fallire in modo intermittente con un codice di risposta 403 Forbidden.** Questo errore si verifica quando l'impostazione del ruolo IAM sul cluster richiede più di 60 secondi. Come soluzione alternativa, puoi installare una patch Amazon EMR per consentire nuovi tentativi e aumentare il timeout a un minimo di 300 secondi. Completa la seguente procedura per applicare l'operazione bootstrap all'avvio del cluster.

  1.  Scarica lo script di bootstrap e i file RPM dal seguente Amazon S3. URIs

     ```
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
     ```

  1. Carica i file della fase precedente in un bucket Amazon S3 di tua proprietà. Il bucket deve trovarsi nello stesso Regione AWS punto in cui intendi avviare il cluster.

  1. Includi la seguente operazione di bootstrap durante l'avvio del cluster EMR. Sostituisci *bootstrap\$1URI* e *RPM\$1URI* con il corrispondente URIs di Amazon S3. 

     ```
     --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
     ```
+ Con le release 5.36.0 e da 6.6.0 a 6.9.0 di Amazon EMR, i componenti dei servizi `SecretAgent` e `RecordServer` servizio potrebbero subire una perdita di dati di log a causa di una configurazione errata del modello nome file nelle proprietà Log4j2. Ca sua della configurazione errata, i componenti generano un solo file di log al giorno. Quando si applica la strategia di rotazione, sovrascrive il file esistente invece di generare un nuovo file di log come previsto. Come soluzione alternativa, utilizza un'azione bootstrap per generare file di log ogni ora e accoda un numero intero con incremento automatico nel nome file per gestire la rotazione.

  Per le release da 6.6.0 a 6.9.0 di Amazon EMR, utilizza la seguente azione bootstrap quando avvii un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Per Amazon EMR 5.36.0, utilizza la seguente azione bootstrap quando avvii un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Apache Flink fornisce FileSystem connettori S3 FileSystem e Hadoop nativi, che consentono alle applicazioni di creare FileSink e scrivere i dati in Amazon S3. Ciò FileSink non riesce con una delle due eccezioni seguenti.

  ```
  java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
  ```

  ```
  Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy;
                                          at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
  ```

  Come soluzione alternativa, puoi installare una patch Amazon EMR, che risolve il problema sopra riportato in Flink. Per applicare l'operazione bootstrap all'avvio del cluster, completa la seguente procedura.

  1. Scarica il flink-rpm nel bucket Amazon S3. Il tuo percorso RPM è `s3://DOC-EXAMPLE-BUCKET/rpms/flink/`.

  1. Scarica lo script di bootstrap e i file RPM da Amazon S3 utilizzando il seguente URI. Sostituiscilo `regionName` con il Regione AWS punto in cui intendi avviare il cluster.

     ```
     s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
     ```

  1. Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. In Amazon EMR 6.8.0 e 6.9.0, questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

     Con [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), esiste una soluzione alternativa a questo problema per impostare il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` su `false` in `yarn-site.xml`. Nelle versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, la configurazione è impostata su `false` per impostazione predefinita per risolvere questo problema.

**Modifiche, miglioramenti e problemi risolti**
+ Per la release 6.9.0 e successive di Amazon EMR, tutti i componenti installati da Amazon EMR che utilizzano librerie Log4j utilizzano Log4j versione 2.17.1 o successiva.
+ Quando utilizzi il connettore DynamoDB con Spark nelle versioni 6.6.0, 6.7.0 e 6.8.0 di Amazon EMR, tutte le letture della tabella restituiscono un risultato vuoto, anche se la divisione di input fa riferimento a dati non vuoti. Amazon EMR rilascio 6.9.0 risolve questo problema.
+ Amazon EMR 6.9.0 aggiunge un supporto limitato per il controllo degli accessi basato su Lake Formation con Apache Hudi durante la lettura dei dati tramite Spark SQL. Il supporto è per le query SELECT che utilizzano Spark SQL ed è limitato al controllo degli accessi a livello di colonna. Per ulteriori informazioni, consulta [Hudi e Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/hudi-with-lake-formation.html).
+ Quando usi Amazon EMR 6.9.0 per creare un cluster Hadoop con le [Etichette nodo](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/NodeLabel.html) abilitate, l'[API delle metriche YARN](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Metrics_API) restituisce informazioni aggregate su tutte le partizioni, anziché sulla partizione predefinita. Per ulteriori informazioni, consulta [YARN-11414](https://issues.apache.org/jira/browse/YARN-11414).
+ Con Amazon EMR 6.9.0, abbiamo aggiornato Trino alla versione 398, che utilizza Java 17. La versione precedente supportata di Trino per Amazon EMR 6.8.0 era Trino 388 in esecuzione su Java 11. Per ulteriori informazioni su questa modifica, consulta [Aggiornamenti di Trino a Java 17](https://trino.io/blog/2022/07/14/trino-updates-to-java-17.html) sul blog di Trino.
+ Questa versione corregge un problema di mancata corrispondenza della sequenza temporale tra Apache e BigTop Amazon EMR nella sequenza di avvio del cluster EC2. Questa mancata corrispondenza della sequenza temporale si verifica quando un sistema tenta di eseguire due o più operazioni contemporaneamente anziché eseguirle nella sequenza corretta. Di conseguenza, alcune configurazioni del cluster hanno registrato timeout di startup delle istanze e tempi di startup del cluster più lenti.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Nota**  
Questa versione non riceve più aggiornamenti automatici delle AMI poiché è stata sostituita da un'altra versione di patch. La versione della patch è indicata dal numero dopo il secondo separatore decimale (`6.8.1`). Per scoprire se stai utilizzando l'ultima versione della patch, controlla le versioni disponibili nella [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulta il menu a discesa **Versione Amazon EMR** quando crei un cluster nella console o utilizzi l'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o l'operazione [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) nella CLI. Per ricevere aggiornamenti sulle nuove versioni, iscriviti al feed RSS nella pagina [Novità](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-690-release.html)

## Versioni dei componenti 6.9.0
<a name="emr-690-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| delta | 2.1.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.3.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.6.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.23.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.2.0 | Connettore di EMR S3Select | 
| emrfs | 2,54,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.15.2 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.3.3-amzn-1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.3.3-amzn-1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.13-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.13-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.13-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.13-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.13-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.13-amzn-0 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-2 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-2 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-2 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.12.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.12.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11,7,0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 6.0.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.276-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.276-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 398-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 398-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 398-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.0-amzn-1 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.0-amzn-1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.0-amzn-1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.10.2-amzn-0 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.9.0
<a name="emr-690-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.9.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.9.0
<a name="690-changelog"></a>


**Log delle modifiche per il rilascio 6.9.0 e le note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-30 | Aggiorna le note di rilascio | Aggiunta una correzione per il problema di mancata corrispondenza della sequenza temporale | 
| 2023-08-21 | Aggiorna le note di rilascio | Aggiunto un problema noto con Hadoop 3.3.3. | 
| 2023-07-26 | Aggiorna | Nuove etichette della versione del sistema operativo 2.0.20230612.0 e 2.0.20230628.0. | 
| 2022-12-13 | Aggiornamento delle note di rilascio | Funzionalità aggiunta e problema noto per il runtime con AI SageMaker  | 
| 2022-11-29 | Aggiornamento delle note di rilascio e della documentazione | Aggiunta di una caratteristica per l'integrazione di Amazon Redshift per Apache Spark | 
| 2022-11-23 | Aggiornamento delle note di rilascio | Rimozione della voce Log4j | 
| 2022-11-18 | Implementazione completata | [Amazon EMR 6.9 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 18-11-2022/18 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.9 | 
| 2022-11-14 | Rilascio iniziale | Implementazione di Amazon EMR 6.9 in alcune regioni commerciali | 

# Versione 6.8.1 di Amazon EMR
<a name="emr-681-release"></a>

## Versioni dell'applicazione 6.8.1
<a name="emr-681-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2.7, 3.7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 
| HCatalog | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hadoop | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 
| Hive | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hudi | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 
| Spark | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 29.1 | 29.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 
| Zeppelin | 0,10,1 | 0,10,1 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3,5,7 | 3,5,7 | 

## Note di rilascio 6.8.1
<a name="emr-681-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative alla versione 6.8.1 di Amazon EMR. Le modifiche sono relative alla versione 6.8.0. Per ulteriori informazioni sulla tempistica di pubblicazione, consulta il [Log delle modifiche 6.8.1](#681-changelog).

**Modifiche, miglioramenti e problemi risolti**
+ Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. Questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

  Con le versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` è impostato su `false` in `yarn-site.xml` per risolvere questo problema.

  Sebbene la correzione si occupi dei problemi introdotti da YARN-9608, potrebbe influire sulla corretta esecuzione dei processi di Hive a causa della perdita dei dati shuffle sui cluster con Scalabilità gestita abilitata. In questa versione abbiamo mitigato tale rischio impostando anche `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` per i carichi di lavoro di Hive. Questa configurazione è disponibile solo con Amazon EMR 6.11.0 e versioni successive.
+ Metrics Collector non invia alcun parametro al piano di controllo dopo il failover del nodo primario nei cluster con la configurazione dei gruppi di istanze.
+ Questa versione elimina i nuovi tentativi sulle richieste HTTP con esito negativo agli endpoint di Metrics Collector.
+ Questa versione include una modifica che consente ai cluster ad alta disponibilità di ripristinare lo stato di errore dopo il riavvio.
+ Questa versione corregge un problema per cui grandi eccezioni create dall'utente UIDs causavano eccezioni di overflow.
+ Questa versione corregge i problemi di timeout con il processo di riconfigurazione di Amazon EMR.
+ Questa versione previene un problema per cui una riconfigurazione con esito negativo potrebbe interrompere altri processi non correlati.
+ Questa versione include correzioni di sicurezza.
+ Questa versione corregge un problema per cui i cluster che eseguono carichi di lavoro su Spark con Amazon EMR potrebbero ricevere silenziosamente risultati errati con `contains`, `startsWith`, `endsWith` e `like`. Questo problema si verifica quando utilizzi le espressioni su campi partizionati che contengono metadati in Amazon EMR Hive3 Metastore Server (HMS).
+ Con le versioni da 6.6.0 a 6.9.x di Amazon EMR, le query INSERT con partizione dinamica e una clausola ORDER BY o SORT BY avranno sempre due riduttori. Questo problema è causato dalla modifica dell'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), che assoggetta l'ottimizzazione dinamica delle partizioni di ordinamento a una decisione basata sui costi. Se il carico di lavoro non richiede l'ordinamento delle partizioni dinamiche, ti consigliamo di impostare la proprietà `hive.optimize.sort.dynamic.partition.threshold` su `-1` per disabilitare la nuova caratteristica e ottenere il numero di riduttori calcolato correttamente. Questo problema è stato corretto in OSS Hive come parte di [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) ed è stato risolto in Amazon EMR 6.10.0.
+ Hive potrebbe subire una perdita di dati quando utilizzi HDFS come directory scratch, hai abilitato l'unione di file di piccole dimensioni e la tabella contiene percorsi di partizione statici.
+ Questa versione corregge un problema di prestazioni con Hive se l'unione di file di piccole dimensioni (disabilitata per impostazione predefinita) è abilitata alla fine del processo ETL.
+ Questa versione corregge un problema di limitazione (della larghezza di banda della rete) sul lato Glue quando non sono presenti funzioni definite dall'utente (UDF).
+ Questa versione corregge un problema che comporta l'eliminazione dei log dei container tramite il servizio di aggregazione dei log dei nodi prima che il pusher possa inviarli a S3 in caso di disattivazione di YARN.
+ Questa versione corregge la gestione dei file compattati/archiviati con il tracciamento persistente dei file di archivio per. HBase
+ Questa versione corregge un problema che influiva sulle prestazioni di Spark quando veniva impostato un valore `true` predefinito per la configurazione di `spark.yarn.heterogeneousExecutors.enabled` in `spark-defaults.conf`.
+ Questa versione corregge un problema a causa del quale Reduce Task non era in grado di leggere i dati shuffle. Il problema ha causato errori nelle query di Hive con un errore di memoria danneggiata.
+ Questa versione corregge un problema che causava il fallimento del provider del nodo se il servizio HDFS NameNode (NN) era bloccato in safemode durante la sostituzione del nodo.
+ Questa versione aggiunge un nuovo meccanismo di tentativi al flusso di lavoro dimensionabile per i cluster EMR che eseguono Presto o Trino. Questo miglioramento riduce il rischio che il ridimensionamento del cluster si blocchi a tempo indeterminato a causa di una singola operazione di ridimensionamento con esito negativo. Inoltre, migliora l'utilizzo del cluster, poiché quest'ultimo aumenta e riduce le·proprie·dimensioni più rapidamente.
+ Questa versione migliora la logica di riduzione del cluster in modo che quest'ultimo non tenti di ridurre i nodi principali al di sotto dell'impostazione del fattore di replica HDFS per il cluster. Ciò è in linea con i requisiti di ridondanza dei dati e riduce la possibilità che un'operazione di dimensionamento si blocchi.
+ Il daemon di gestione dei log è stato aggiornato per identificare tutti i log che sono in uso attivo con handle di file aperti sull'archiviazione dell'istanza locale e i processi associati. Questo aggiornamento garantisce che Amazon EMR elimini correttamente i file e recuperi lo spazio di archiviazione dopo la memorizzazione dei log su Amazon S3.
+ Questa versione include un miglioramento del daemon di gestione dei log che elimina le directory delle fasi vuote e inutilizzate nel file system del cluster locale. Un numero eccessivo di directory vuote può ridurre le prestazioni dei daemon Amazon EMR e causare un utilizzo eccessivo del disco.
+ Questa versione corregge un problema che potrebbe verificarsi quando si crea un nodo edge replicando uno dei nodi primari da un cluster con più nodi primari. Il nodo edge replicato potrebbe causare ritardi nelle operazioni di riduzione o comportare un elevato utilizzo della memoria sui nodi primari. Per ulteriori informazioni su come creare un nodo perimetrale per comunicare con il cluster EMR, vedere [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) nel `aws-samples` repository su. GitHub
+ Questa versione migliora il processo di automazione utilizzato da Amazon EMR per rimontare i volumi Amazon EBS su un'istanza dopo un riavvio.
+ Questa versione corregge un problema che causava lacune intermittenti nelle metriche Hadoop pubblicate da Amazon EMR su Amazon. CloudWatch
+ Questa versione corregge un problema con i cluster EMR per cui un aggiornamento del file di configurazione YARN che contiene l'elenco di esclusione dei nodi per il cluster viene interrotto a causa dell'eccessivo utilizzo del disco. L'aggiornamento incompleto ostacola le future operazioni di riduzione del cluster. Questa versione garantisce l'integrità del cluster e il corretto funzionamento delle operazioni di dimensionamento.
+ Questa versione migliora il daemon di gestione dei log sul cluster per monitorare cartelle di log aggiuntive nel cluster EMR. Questo miglioramento riduce al minimo gli scenari di utilizzo eccessivo del disco.
+ Questa versione riavvia automaticamente il daemon di gestione dei log sul cluster quando si arresta. Questo miglioramento riduce il rischio che i nodi appaiano non integri a causa dell'eccessivo utilizzo del disco. 
+ Questa versione aggiunge il supporto per l'archiviazione dei log su Amazon S3 durante la riduzione dei cluster. In precedenza, era possibile archiviare i file di log in Amazon S3 solo durante la terminazione del cluster. La nuova funzionalità garantisce la persistenza su Amazon S3 dei file di log generati nel cluster anche dopo la terminazione del nodo. Per ulteriori informazioni, consulta [Configurazione della registrazione e del debug di cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Questa versione corregge un problema che si verificava quando l'URI di Amazon S3 per un'operazione di bootstrap terminava con un numero di porta, ad esempio: `a.b.c.d:4345`. Amazon EMR li stava analizzando in modo errato URIs, quindi tutte le azioni di bootstrap associate avrebbero avuto esito negativo.
+ Questa versione corregge un problema di mancata corrispondenza della sequenza temporale tra Apache e BigTop Amazon EMR nella sequenza di avvio del cluster EC2. Questa mancata corrispondenza della sequenza temporale si verifica quando un sistema tenta di eseguire due o più operazioni contemporaneamente anziché eseguirle nella sequenza corretta. Di conseguenza, alcune configurazioni del cluster hanno registrato timeout di startup delle istanze e tempi di startup del cluster più lenti.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-681-release.html)

## Versioni dei componenti 6.8.1
<a name="emr-681-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.22.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,53,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.15.1 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-8.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-8.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-8.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.12-amzn-0.1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.12-amzn-0.1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.12-amzn-0.1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.12-amzn-0.1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.12-amzn-0.1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.12-amzn-0.1 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-1.1 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-1.1 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1.1 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-1.1 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-1.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-1.1 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-1.1 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.11.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.11.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11,7,0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.2 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.273.3-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.273.3-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 388-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 388-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 388-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.0-amzn-0.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.0-amzn-0.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.0-amzn-0.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.8.1
<a name="emr-681-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.8.1**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.8.1
<a name="681-changelog"></a>


**Log delle modifiche per la versione 6.8.1 e note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-30 | Aggiorna le note di rilascio | Aggiunte diverse correzioni relative al piano di controllo alle note di rilascio | 
| 2023-08-21 | Pubblicazione dei documenti | Pubblicazione delle prime note di rilascio di Amazon EMR 6.8.1 | 
| 2023-08-16 | Implementazione completata | [Amazon EMR 6.8.1 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Rilascio iniziale | Implementazione di Amazon EMR 6.8.1 in alcune regioni commerciali | 

# Amazon EMR versione 6.8.0
<a name="emr-680-release"></a>

## Versioni dell'applicazione 6.8.0
<a name="emr-680-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.170 | 1,12,170 | 1,12,170 | 1,12,31 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2,12,15 | 2,12,15 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 
| HCatalog | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hadoop | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 
| Hive | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 
| Spark | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 29.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 
| Zeppelin | 0,10,1 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3,5,7 | 3,5,7 | 3,5,7 | 

## Note del rilascio 6.8.0
<a name="emr-680-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.8.0. Le modifiche sono relative alla versione 6.7.0

**Nuove funzionalità**
+ La funzionalità Amazon EMR Steps ora supporta endpoint e client Apache Livy. JDBC/ODBC Per ulteriori informazioni, consulta [Configurazione dei ruoli di runtime per le fasi di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html).
+ La versione 6.8.0 di Amazon EMR viene fornita con la versione 2.4.12 di Apache. HBase Con questa HBase versione, puoi archiviare ed eliminare le tabelle. HBase Il processo di archiviazione di Amazon S3 rinomina tutti i file della tabella nella directory di archivio. Questo processo può essere lungo e costoso. Ora è possibile saltare il processo di archiviazione ed eliminare rapidamente tabelle di grandi dimensioni. Per ulteriori informazioni, consulta [Usare la shell HBase](emr-hbase-connect.md).

**Problemi noti**
+ Hadoop 3.3.3 ha introdotto una modifica in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. In Amazon EMR 6.8.0 e 6.9.0, questo approccio potrebbe anche portare a un utilizzo insufficiente delle risorse sui cluster con o senza Scalabilità gestita abilitata.

  Con [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), esiste una soluzione alternativa a questo problema per impostare il valore di `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` su `false` in `yarn-site.xml`. Nelle versioni 6.11.0 e successive di Amazon EMR, nonché 6.8.1, 6.9.1 e 6.10.1, la configurazione è impostata su `false` per impostazione predefinita per risolvere questo problema.

**Modifiche, miglioramenti e problemi risolti**
+ Quando i rilasci 6.5.0, 6.6.0 o 6.7.0 di Amazon EMR leggevano le tabelle di Apache Phoenix tramite la shell Apache Spark, Amazon EMR produceva un `NoSuchMethodError`. Il rilascio 6.8.0 di Amazon EMR risolve questo problema.
+ Il rilascio 6.8.0 di Amazon EMR include [Apache Hudi](https://hudi.apache.org/) 0.11.1; tuttavia, i cluster Amazon EMR 6.8.0 sono compatibili anche con l'open source `hudi-spark3.3-bundle_2.12` di Hudi 0.12.0.
+ Il rilascio 6.8.0 di Amazon EMR con Apache Spark 3.3.0. Questa versione di Spark utilizza Apache Log4j 2 e il file `log4j2.properties` per configurare Log4j nei processi Spark. Se utilizzi Spark nel cluster o crei cluster EMR con parametri di configurazione personalizzati e desideri eseguire l'aggiornamento alla versione 6.8.0 di Amazon EMR, devi migrare alla nuova classificazione della configurazione e formato chiave `spark-log4j2` per Apache Log4j 2. Per ulteriori informazioni, consulta [Migrazione da Apache Log4j 1.x a Log4j 2.x](emr-spark-configure.md#spark-migrate-logj42).
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Nota**  
Questa versione non riceve più aggiornamenti automatici delle AMI poiché è stata sostituita da un'altra versione di patch. La versione della patch è indicata dal numero dopo il secondo separatore decimale (`6.8.1`). Per scoprire se stai utilizzando l'ultima versione della patch, controlla le versioni disponibili nella [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulta il menu a discesa **Versione Amazon EMR** quando crei un cluster nella console o utilizzi l'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o l'operazione [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) nella CLI. Per ricevere aggiornamenti sulle nuove versioni, iscriviti al feed RSS nella pagina [Novità](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-680-release.html)

**Problemi noti**
+ Quando usi il connettore DynamoDB con Spark nelle versioni di Amazon EMR 6.6.0, 6.7.0 e 6.8.0, tutte le letture della tabella restituiscono un risultato vuoto, anche se la divisione di input fa riferimento a dati non vuoti. Questo perché Spark 3.2.0 imposta `spark.hadoopRDD.ignoreEmptySplits` su `true` di default. Come soluzione alternativa, imposta esplicitamente `spark.hadoopRDD.ignoreEmptySplits` su `false`. Amazon EMR rilascio 6.9.0 risolve questo problema.
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.
+ Con le release 5.36.0 e da 6.6.0 a 6.9.0 di Amazon EMR, i componenti dei servizi `SecretAgent` e `RecordServer` servizio potrebbero subire una perdita di dati di log a causa di una configurazione errata del modello nome file nelle proprietà Log4j2. Ca sua della configurazione errata, i componenti generano un solo file di log al giorno. Quando si applica la strategia di rotazione, sovrascrive il file esistente invece di generare un nuovo file di log come previsto. Come soluzione alternativa, utilizza un'azione bootstrap per generare file di log ogni ora e accoda un numero intero con incremento automatico nel nome file per gestire la rotazione.

  Per le release da 6.6.0 a 6.9.0 di Amazon EMR, utilizza la seguente azione bootstrap quando avvii un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Per Amazon EMR 5.36.0, utilizza la seguente azione bootstrap quando avvii un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

Per ulteriori informazioni sulla tempistica di rilascio, consulta il [log delle modifiche](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-680-release.html#680-changelog).

## Versioni dei componenti 6.8.0
<a name="emr-680-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.22.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,53,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.15.1 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-8 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-8 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-8 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.12-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.12-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.12-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.12-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.12-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.12-amzn-0 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-1 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-1 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-1 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-1 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-1 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.11.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.11.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 11,7,0 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.2 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.273.3-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.273.3-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 388-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 388-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 388-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.3.0-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.3.0-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.3.0-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.8.0
<a name="emr-680-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.8.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

## Log delle modifiche 6.8.0
<a name="680-changelog"></a>


**Log delle modifiche per la versione 6.8.0 e le note di rilascio**  

| Data | Event | Description | 
| --- | --- | --- | 
| 2023-08-21 | Aggiorna | Aggiunto un problema noto con Hadoop 3.3.3. | 
| 2023-07-26 | Aggiorna | Nuove etichette della versione del sistema operativo 2.0.20230612.0 e 2.0.20230628.0. | 
| 2022-09-06 | Implementazione completata | [Amazon EMR 6.8 completamente distribuito in tutte le regioni supportate](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2022-09-06 | Pubblicazione iniziale | Pubblicazione delle prime note di rilascio di Amazon EMR 6.8 | 
| 2022-08-31 | Rilascio iniziale | Amazon EMR 6.8 pubblicato in regioni commerciali limitate | 

# Rilascio 6.7.0 di Amazon EMR
<a name="emr-670-release"></a>

## Versioni dell'applicazione 6.7.0
<a name="emr-670-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.170 | 1,12,170 | 1,12,31 | 1,12,31 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2,12,15 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 
| HCatalog | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hadoop | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 
| Hive | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hudi | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 
| Spark | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3,5,7 | 3,5,7 | 3,5,7 | 3,5,7 | 

## Note del rilascio 6.7.0
<a name="emr-670-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.7.0. Le modifiche sono relative alla versione 6.6.0.

Data del rilascio iniziale: 15 luglio 2022

**Nuove funzionalità**
+ Amazon EMR ora supporta Apache Spark 3.2.1, Apache Hive 3.1.3, HUDI 0.11, PrestoDB 0.272 e Trino 0.378.
+ Supporta i controlli degli accessi basati su ruoli IAM e Lake Formation con fasi EMR (Spark, Hive) per Amazon EMR sui cluster EC2.
+ Supporta le istruzioni di definizione dei dati Apache Spark su cluster abilitati Apache Ranger. Adesso, include il supporto per le applicazioni Trino che leggono e scrivono metadati Apache Hive su cluster abilitati Apache Ranger. Per ulteriori informazioni, consulta la sezione [Abilitazione della governance federata utilizzando Trino e Apache Ranger su Amazon EMR](https://aws.amazon.com/blogs/big-data/enable-federated-governance-using-trino-and-apache-ranger-on-amazon-emr/).
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-670-release.html)

**Problemi noti**
+ Quando le release 6.5.0, 6.6.0 o 6.7.0 di Amazon EMR leggono le tabelle di Apache Phoenix tramite la shell (interprete di comandi) Apache Spark, si verifica un `NoSuchMethodError` perché Amazon EMR utilizza un valore errato `Hbase.compat.version`. Il rilascio 6.8.0 di Amazon EMR risolve questo problema.
+ Quando usi il connettore DynamoDB con Spark nelle versioni di Amazon EMR 6.6.0, 6.7.0 e 6.8.0, tutte le letture della tabella restituiscono un risultato vuoto, anche se la divisione di input fa riferimento a dati non vuoti. Questo perché Spark 3.2.0 imposta `spark.hadoopRDD.ignoreEmptySplits` su `true` di default. Come soluzione alternativa, imposta esplicitamente `spark.hadoopRDD.ignoreEmptySplits` su `false`. Amazon EMR rilascio 6.9.0 risolve questo problema.
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.
+ Con le release 5.36.0 e da 6.6.0 a 6.9.0 di Amazon EMR, i componenti dei servizi `SecretAgent` e `RecordServer` servizio potrebbero subire una perdita di dati di log a causa di una configurazione errata del modello nome file nelle proprietà Log4j2. Ca sua della configurazione errata, i componenti generano un solo file di log al giorno. Quando si applica la strategia di rotazione, sovrascrive il file esistente invece di generare un nuovo file di log come previsto. Come soluzione alternativa, utilizza un'azione bootstrap per generare file di log ogni ora e accoda un numero intero con incremento automatico nel nome file per gestire la rotazione.

  Per le release da 6.6.0 a 6.9.0 di Amazon EMR, utilizza la seguente azione bootstrap quando avvii un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Per Amazon EMR 5.36.0, utilizza la seguente azione bootstrap quando avvii un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ L'API `GetClusterSessionCredentials` non è supportata con i cluster eseguiti su Amazon EMR 6.7 o versioni precedenti.
+ I seguenti commit Hadoop sono stati sottoposti a backport.

  - [[HADOOP-16080](https://issues.apache.org/jira/browse/HADOOP-16080)] Risolto il problema in cui non funzionava. `hadoop-aws` `hadoop-client-api`

  - [[HADOOP-18237](https://issues.apache.org/jira/browse/HADOOP-18237)] Aggiornamento di Apache Xerces Java alla versione 2.12.2.

  - [[YARN-11092]](https://issues.apache.org/jira/browse/YARN-11092) Aggiorna jquery a ui alla versione 1.13.1.

  - [[YARN-10720] WebAppProxyServlet YARN dovrebbe supportare](https://issues.apache.org/jira/browse/YARN-10720) il timeout della connessione per evitare che il server proxy si blocchi.

## Versioni dei componenti 6.7.0
<a name="emr-670-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.6.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.22.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,52,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.14.2 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-7 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-7 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-7 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-7 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-7 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-7 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-7 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-7 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-7 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-7 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-7 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.4-amzn-3 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.4-amzn-3 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.4-amzn-3 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.4-amzn-3 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.4-amzn-3 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.4-amzn-3 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.3-amzn-0 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.3-amzn-0 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.3-amzn-0 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.3-amzn-0 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.3-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-0 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.3-amzn-0 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.11.0-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.11.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.11.0-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.11.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.13.1-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.8.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 110,194 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 52,1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.2 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.272-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.272-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.272-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 378-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 378-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 378-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.2.1-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.2.1-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.2.1-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.2.1-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.02.0-amzn-1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.7 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3,5,7 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.7.0
<a name="emr-670-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.7.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.6.0 di Amazon EMR
<a name="emr-660-release"></a>

## Versioni dell'applicazione 6.6.0
<a name="emr-660-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.170 | 1,12,31 | 1,12,31 | 1,11,977 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 
| Hive | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hudi | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1 | 0.12.0 |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 367-amzn-0 | 360 | 359 | 350 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3,5,7 | 3,5,7 | 3,5,7 | 3.4.14 | 

## Note del rilascio 6.6.0
<a name="emr-660-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.6.0. Le modifiche sono relative alla versione 6.5.0.

Data del rilascio iniziale: 9 maggio 2022

Ultimo aggiornamento della documentazione: 15 giugno 2022

**Nuove funzionalità**
+ Amazon EMR 6.6 ora supporta Apache Spark 3.2, Apache Spark RAPIDS 22.02, CUDA 11, Apache Hudi 0.10.1, Apache Iceberg 0.13, Trino 0.367 e PrestoDB 0.267.
+ Quando avvii un cluster con *l'ultima versione di patch* di Amazon EMR 5.36 o successiva, 6.6 o successiva o 7.0 o successiva, Amazon EMR utilizza la versione più recente di Amazon Linux 2023 o Amazon Linux 2 per l'AMI Amazon EMR predefinita. Per ulteriori informazioni, consulta [Utilizzo dell'AMI Amazon Linux predefinita per Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-660-release.html)
+ Le applicazioni Amazon EMR versione 6.6 e successive che usano Log4j 1.x e Log4j 2.x sono aggiornate per usare rispettivamente Log4j 1.2.17 (o superiore) e Log4j 2.17.1 (o superiore) e non richiedono l'uso di [operazioni di bootstrap](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-log4j-vulnerability.html) per mitigare i problemi CVE.
+ **[Dimensionamento] Ottimizzazione del dimensionamento gestito dei dati di shuffle di Spark** - Per Amazon EMR versioni 5.34.0 e successive e EMR 6.4.0 e successive, il dimensionamento gestito è ora consapevole dei dati di shuffle di Spark (dati che Spark ridistribuisce tra le partizioni per eseguire operazioni specifiche). Per ulteriori informazioni sulle operazioni di shuffle, consulta [Utilizzo del dimensionamento gestito da EMR in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) nella *Guida alla gestione di Amazon EMR* e [Guida di programmazione Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ A partire da Amazon EMR 5.32.0 e 6.5.0, il ridimensionamento dell'executor dinamico per Apache Spark è abilitato di default. Per attivare o disattivare questa caratteristica, è possibile utilizzare il `spark.yarn.heterogeneousExecutors.enabled` parametro di configurazione.

**Modifiche, miglioramenti e problemi risolti**
+ Amazon EMR riduce in media i tempi di startup del cluster fino a 80 secondi per i cluster che utilizzano l'opzione AMI di default EMR e installano solo applicazioni comuni, come Apache Hadoop, Apache Spark e Apache Hive.

**Problemi noti**
+ Quando le release 6.5.0, 6.6.0 o 6.7.0 di Amazon EMR leggono le tabelle di Apache Phoenix tramite la shell (interprete di comandi) Apache Spark, si verifica un `NoSuchMethodError` perché Amazon EMR utilizza un valore errato `Hbase.compat.version`. Il rilascio 6.8.0 di Amazon EMR risolve questo problema.
+ Quando usi il connettore DynamoDB con Spark nelle versioni di Amazon EMR 6.6.0, 6.7.0 e 6.8.0, tutte le letture della tabella restituiscono un risultato vuoto, anche se la divisione di input fa riferimento a dati non vuoti. Questo perché Spark 3.2.0 imposta `spark.hadoopRDD.ignoreEmptySplits` su `true` di default. Come soluzione alternativa, imposta esplicitamente `spark.hadoopRDD.ignoreEmptySplits` su `false`. Amazon EMR rilascio 6.9.0 risolve questo problema.
+ Su cluster Trino a lunga esecuzione Amazon EMR 6.6.0 abilita i parametri di registrazione della rimozione di oggetti inutili (Garbage Collection) in Trino jvm.config per ottenere informazioni migliori dai log di Garbage Collection. Questa modifica aggiunge molti log di Garbage Collection al file launcher.log (/.log). var/log/trino/launcher Se esegui cluster Trino in Amazon EMR 6.6.0, potresti riscontrare che i nodi esauriscono lo spazio su disco dopo che il cluster è stato in esecuzione per un paio di giorni a causa dei registri che sono stati aggiunti.

  La soluzione alternativa per questo problema è eseguire lo script sottostante come operazione Bootstrap per disabilitare i parametri di registrazione di rimozione di oggetti inutili (garbage collection) in jvm.config durante la creazione o la clonazione del cluster per Amazon EMR 6.6.0.

  ```
  #!/bin/bash
    set -ex
    PRESTO_PUPPET_DIR='/var/aws/emr/bigtop-deploy/puppet/modules/trino'
    sudo bash -c "sed -i '/-Xlog/d' ${PRESTO_PUPPET_DIR}/templates/jvm.config"
  ```
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.
+ Con le release 5.36.0 e da 6.6.0 a 6.9.0 di Amazon EMR, i componenti dei servizi `SecretAgent` e `RecordServer` servizio potrebbero subire una perdita di dati di log a causa di una configurazione errata del modello nome file nelle proprietà Log4j2. Ca sua della configurazione errata, i componenti generano un solo file di log al giorno. Quando si applica la strategia di rotazione, sovrascrive il file esistente invece di generare un nuovo file di log come previsto. Come soluzione alternativa, utilizza un'azione bootstrap per generare file di log ogni ora e accoda un numero intero con incremento automatico nel nome file per gestire la rotazione.

  Per le release da 6.6.0 a 6.9.0 di Amazon EMR, utilizza la seguente azione bootstrap quando avvii un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Per Amazon EMR 5.36.0, utilizza la seguente azione bootstrap quando avvii un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## Versioni dei componenti 6.6.0
<a name="emr-660-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.5.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.20.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,5,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.14.2 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-6 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-6 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-6 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-6 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-6 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-6 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-6 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-6 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-6 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-6 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-6 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.4-amzn-2 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.4-amzn-2 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.4-amzn-2 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.4-amzn-2 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.4-amzn-2 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hbase-operator-tools | 2.4.4-amzn-2 | Strumento di riparazione per cluster Apache HBase . | 
| hcatalog-client | 3.1.2-amzn-7 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-7 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-7 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-7 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-7 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-7 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-7 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.10.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.10.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.10.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.10.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.13.1 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.8.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 110,194 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 52,1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-connectors | 5.1.2 | Connettori Apache Phoenix per Spark-3 | 
| phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.267-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.267-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.267-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 367-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 367-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 367-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.2.0-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.2.0-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.2.0-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.2.0-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 22.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.7 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3,5,7 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.6.0
<a name="emr-660-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.6.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.5.0 di Amazon EMR
<a name="emr-650-release"></a>

## Versioni dell'applicazione 6.5.0
<a name="emr-650-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.31 | 1,12,31 | 1,11,977 | 1,11,977 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 
| Hive | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.12.0 |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 360 | 359 | 350 | 350 | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3,5,7 | 3,5,7 | 3.4.14 | 3.4.14 | 

## Note di rilascio 6.5.0
<a name="emr-650-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.5.0. Le modifiche sono relative alla versione 6.4.0.

Data del rilascio iniziale: 20 gennaio 2022

Data di rilascio aggiornata: 21 marzo 2022

**Nuove funzionalità**
+ **[Dimensionamento] Ottimizzazione del dimensionamento gestito dei dati di shuffle di Spark** - Per Amazon EMR versioni 5.34.0 e successive e EMR 6.4.0 e successive, il dimensionamento gestito è ora consapevole dei dati di shuffle di Spark (dati che Spark ridistribuisce tra le partizioni per eseguire operazioni specifiche). Per ulteriori informazioni sulle operazioni di shuffle, consulta [Utilizzo del dimensionamento gestito da EMR in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) nella *Guida alla gestione di Amazon EMR* e [Guida di programmazione Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ A partire da Amazon EMR 5.32.0 e 6.5.0, il ridimensionamento dell'executor dinamico per Apache Spark è abilitato di default. Per attivare o disattivare questa caratteristica, è possibile utilizzare il `spark.yarn.heterogeneousExecutors.enabled` parametro di configurazione.
+ Supporto per il formato di tabella aperta Apache Iceberg per enormi set di dati analitici.
+ Supporto per ranger-trino-plugin 2.0.1-amzn-1
+ Supporto per toree 0.5.0

**Modifiche, miglioramenti e problemi risolti**
+ La versione del rilascio 6.5 di Amazon EMR ora supporta Apache Iceberg 0.12.0 e offre miglioramenti al tempo di esecuzione con runtime di Amazon EMR per Apache Spark, Amazon EMR Runtime per Presto e Amazon EMR Runtime per Apache Hive.
+ [Apache Iceberg](https://iceberg.apache.org/) è un formato di tabella aperta per set di dati di grandi dimensioni in Amazon S3 e fornisce prestazioni di query rapide su tabelle di grandi dimensioni, commit atomici, scritture simultanee ed evoluzione delle tabelle compatibili con SQL. Con EMR 6.5, è possibile utilizzare Apache Spark 3.1.2 con il formato tabella Iceberg.
+ Apache Hudi 0.9 aggiunge il supporto Spark SQL DDL e DML. Ciò consente di creare e modificare le tabelle Hudi usando solo istruzioni SQL. Apache Hudi 0.9 include anche miglioramenti delle prestazioni sul lato query e sul lato scrittore.
+ Il runtime di Amazon EMR per Apache Hive migliora le prestazioni di Apache Hive su Amazon S3 rimuovendo le operazioni di ridenominazione durante le operazioni di gestione temporanea e migliora le prestazioni per i comandi di metastore check (MSCK) utilizzati per la riparazione delle tabelle.

**Problemi noti**
+ Quando le release 6.5.0, 6.6.0 o 6.7.0 di Amazon EMR leggono le tabelle di Apache Phoenix tramite la shell (interprete di comandi) Apache Spark, si verifica un `NoSuchMethodError` perché Amazon EMR utilizza un valore errato `Hbase.compat.version`. Il rilascio 6.8.0 di Amazon EMR risolve questo problema.
+ I cluster bundle Hbase in High Availability (HA) non riescono a effettuare il provisioning con la dimensione del volume e il tipo di istanza di default. La soluzione alternativa per questo problema consiste nell'aumentare la dimensione del volume principale.
+ Per utilizzare le operazioni Spark con Apache Oozie, devi aggiungere la seguente configurazione al tuo file `workflow.xml` Oozie. In caso contrario, diverse librerie critiche come Hadoop e EMRFS non saranno presenti nella classpath degli esecutori Spark lanciati da Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.

## Versioni dei componenti 6.5.0
<a name="emr-650-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.4.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.19.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,48,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.14.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.14.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-5 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-5 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-5 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-5 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-5 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-5 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-5 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-5 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-5 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-5 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.4-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.4-amzn-1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.4-amzn-1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.4-amzn-1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.4-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-6 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-6 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-6 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-6 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-6 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-6 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-6 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.9.0-amzn-1 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. | 
| hudi-presto | 0.9.0-amzn-1 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.9.0-amzn-1 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.9.0-amzn-1 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.9.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| iceberg | 0.12.0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.8.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 10,1243 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.261-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.261-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.261-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 360 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 360 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 360 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.1.2-amzn-1 | Client a riga di comando Spark. | 
| spark-history-server | 3.1.2-amzn-1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.1.2-amzn-1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.1.2-amzn-1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 04.1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.10.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.7 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3,5,7 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.5.0
<a name="emr-650-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.5.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.4.0 di Amazon EMR
<a name="emr-640-release"></a>

## Versioni dell'applicazione 6.4.0
<a name="emr-640-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.12.31 | 1,11,977 | 1,11,977 | 1,11,80 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 
| Hive | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 5.1.2 | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 
| Spark | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 359 | 350 | 350 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 
| ZooKeeper | 3,5,7 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note di rilascio 6.4.0
<a name="emr-640-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.4.0. Le modifiche sono relative alla versione 6.3.0.

Data del rilascio iniziale: 20 settembre 2021

Data di rilascio aggiornata: 21 marzo 2022

**Applicazioni supportate**
+ AWS SDK per Java versione 1.12.31
+ CloudWatch Sink versione 2.2.0
+ DynamoDB Connector versione 4.16.0
+ EMRFS versione 2.47.0
+ Amazon EMR Goodies versione 3.2.0
+ Amazon EMR Kinesis Connector versione 3.5.0
+ Amazon EMR Record Server versione 2.1.0
+ Amazon EMR Scripts versione 2.5.0
+ Flink versione 1.13.1
+ Ganglia versione 3.7.2
+ AWS Glue Hive Metastore Client versione 3.3.0
+ Hadoop versione 3.2.1-amzn-4
+ HBase versione 2.4.4-amzn-0
+ HBase-operator-tools 1.1.0
+ HCatalog versione 3.1.2-amzn-5
+ Hive versione 3.1.2-amzn-5
+ Hudi versione 0.8.0-amzn-0
+ Hue versione 4.9.0
+ Java JDK versione Corretto-8.302.08.1 (build 1.8.0\$1302-b08)
+ JupyterHub versione 1.4.1
+ Livy versione 0.7.1-incubating
+ MXNet versione 1.8.0
+ Oozie versione 5.2.1
+ Phoenix versione 5.1.2
+ Pig versione 0.17.0
+ Presto versione 0.254.1-amzn-0
+ Trino versione 359
+ Apache Ranger KMS (crittografia trasparente multi-master) versione 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.2.0
+ SageMaker Spark SDK versione 1.4.1
+ Scala versione 2.12.10 (VM server OpenJDK a 64 bit, Java 1.8.0\$1282)
+ Spark versione 3.1.2-amzn-0
+ spark-rapids 0.4.1
+ Sqoop versione 1.4.7
+ TensorFlow versione 2.4.1
+ tez versione 0.9.2
+ Zeppelin versione 0.9.0
+ Zookeeper versione 3.5.7
+ Connettori e driver: DynamoDB Connector 4.16.0

**Nuove funzionalità**
+ **[Dimensionamento] Ottimizzazione del dimensionamento gestito dei dati di shuffle di Spark** - Per Amazon EMR versioni 5.34.0 e successive e EMR 6.4.0 e successive, il dimensionamento gestito è ora consapevole dei dati di shuffle di Spark (dati che Spark ridistribuisce tra le partizioni per eseguire operazioni specifiche). Per ulteriori informazioni sulle operazioni di shuffle, consulta [Utilizzo del dimensionamento gestito da EMR in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) nella *Guida alla gestione di Amazon EMR* e [Guida di programmazione Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Sui cluster Amazon EMR abilitati ad Apache Ranger, puoi utilizzare Apache Spark SQL per inserire o aggiornare i dati nelle tabelle dei metastore di Apache Hive utilizzando `INSERT INTO`, `INSERT OVERWRITE`, e `ALTER TABLE`. Quando si utilizza ALTER TABLE con Spark SQL, una posizione di partizione deve essere la directory figlio di una posizione di tabella. Al momento Amazon EMR non supporta l'inserimento di dati in una partizione in cui la posizione della partizione è diversa da quella della tabella.
+ PrestoSQL è stato [rinominato in Trino.](https://trino.io/blog/2020/12/27/announcing-trino.html) 
+ Hive: l'esecuzione di semplici query SELECT con clausola LIMIT viene accelerata interrompendo l'esecuzione della query non appena viene recuperato il numero di registri menzionati nella clausola LIMIT. Le query SELECT semplici sono query che non hanno una clausola GROUP BY/ORDER by o query che non hanno uno stadio di riduzione. Ad esempio, `SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>`. 

**Controlli di simultaneità Hudi**
+ Hudi ora supporta Optimistic Concurrency Control (OCC), che può essere sfruttato con operazioni di scrittura come UPSERT e INSERT per consentire modifiche da più scrittori alla stessa tabella Hudi. Questo è livello di file OCC, quindi due commit (o scrittori) possono scrivere sulla stessa tabella, se le modifiche non sono in conflitto. Per ulteriori informazioni, consulta [Controllo della concorrenza Hudi](https://hudi.apache.org/docs/concurrency_control/). 
+ I cluster Amazon EMR hanno installato Zookeeper, che può essere sfruttato come provider di blocchi per OCC. Per semplificare l'utilizzo di questa funzione, i cluster Amazon EMR hanno le seguenti proprietà preconfigurate:

  ```
  hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider
  hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL>
  hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port>
  hoodie.write.lock.zookeeper.base_path=/hudi
  ```

  Per abilitare OCC, è necessario configurare le seguenti proprietà con le relative opzioni di processo Hudi o a livello di cluster utilizzando l'API di configurazione Amazon EMR:

  ```
  hoodie.write.concurrency.mode=optimistic_concurrency_control
  hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write)
  hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
  ```

**Monitoraggio Hudi: CloudWatch integrazione con Amazon per riportare Hudi Metrics**
+ Amazon EMR supporta la pubblicazione di Hudi Metrics su Amazon. CloudWatch È abilitato impostando le seguenti configurazioni richieste:

  ```
  hoodie.metrics.on=true
  hoodie.metrics.reporter.type=CLOUDWATCH
  ```
+ Di seguito sono riportate le configurazioni Hudi opzionali che è possibile modificare:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/emr-640-release.html)

**Supporto e miglioramenti delle configurazioni Amazon EMR Hudi**
+ I clienti possono ora sfruttare l'API di configurazione EMR e la funzione di riconfigurazione per configurare le configurazioni Hudi a livello di cluster. Un nuovo supporto per la configurazione basato su file è stato introdotto tramite/etc/hudi/conf/hudi-defaults.conf sulla falsariga di altre applicazioni come Spark, Hive ecc. EMR configura alcuni valori di default per migliorare l'esperienza utente:

  — `hoodie.datasource.hive_sync.jdbcurl ` è configurato per l'URL del server Hive del cluster e non deve più essere specificato. Ciò è particolarmente utile quando si esegue un processo in modalità cluster Spark, dove in precedenza era necessario specificare l'IP principale Amazon EMR. 

  — configurazioni HBase specifiche, utili per usare l'indice con Hudi. HBase 

  — Configurazione specifica del provider di blocco Zookeeper, come discusso sotto il controllo della concorrenza, che semplifica l'utilizzo di Optimistic Concurrency Control (OCC).
+ Sono state introdotte ulteriori modifiche per ridurre il numero di configurazioni che devi passare e per dedurre automaticamente laddove possibile:

  — La parola chiave `partitionBy ` può essere utilizzata per specificare la colonna della partizione. 

  — Quando si abilita Hive Sync, non è più obbligatorio passare `HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY`. Tali valori possono essere dedotti dal nome della tabella Hudi e dal campo della partizione. 

  — `KEYGENERATOR_CLASS_OPT_KEY` non è obbligatorio passare e può essere dedotto da casi più semplici di `SimpleKeyGenerator` e `ComplexKeyGenerator`. 

**Avvertenze Hudi**
+ Hudi non supporta l'esecuzione vettorizzata nelle tabelle Hive for Merge on Read (MoR) e Bootstrap. Ad esempio: `count(*)` fallisce con la tabella in tempo reale Hudi quando `hive.vectorized.execution.enabled` è impostato su VERO. Come soluzione alternativa, puoi disabilitare la lettura vettorizzata impostando `hive.vectorized.execution.enabled` a `false`. 
+ Il supporto multi-writer non è compatibile con la caratteristica bootstrap Hudi.
+ Flink Streamer e Flink SQL sono caratteristiche sperimentali di questa versione. Queste caratteristiche non sono consigliate per l'uso nelle distribuzioni di produzione.

**Modifiche, miglioramenti e problemi risolti**

Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.
+ In precedenza, il riavvio manuale del gestore delle risorse su un cluster multi-master provocava il ricaricamento, da parte dei daemon su cluster di Amazon EMR come Zookeeper, di tutti i nodi precedentemente disattivati o persi nel file znode di Zookeeper. Ciò causava il superamento dei limiti predefiniti in determinate situazioni. Ora Amazon EMR rimuove i record dei nodi disattivati o persi più vecchi di un'ora dal file Zookeeper e i limiti interni sono stati aumentati.
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ **Configurazione di un cluster per risolvere i problemi di prestazioni di Apache YARN Timeline Server versione 1 e 1.5**

  Le versioni 1 e 1.5 di Apache YARN Timeline Server possono causare problemi di prestazioni con cluster EMR molto attivi e di grandi dimensioni, in particolare con `yarn.resourcemanager.system-metrics-publisher.enabled=true`, che è l'impostazione predefinita in Amazon EMR. Un YARN Timeline Server v2 open source risolve il problema di prestazioni relativo alla scalabilità di YARN Timeline Server.

  Altre soluzioni alternative per questo problema includono:
  + Configurazione di yarn.resourcemanager. system-metrics-publisher.enabled=false in yarn-site.xml.
  + L'abilitazione della correzione per questo problema durante la creazione di un cluster, come descritto di seguito.

  I seguenti rilasci di Amazon EMR contengono una correzione per questo problema di prestazioni di YARN Timeline Server.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1 e 6.4.x

  Per abilitare la correzione su una delle versioni di Amazon EMR sopra specificate, imposta queste proprietà su `true` in un file JSON di configurazioni che viene passato utilizzando il [parametro del comando `aws emr create-cluster`](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html): `--configurations file://./configurations.json`. Oppure abilita la correzione utilizzando l'[interfaccia utente della console di riconfigurazione](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Esempio del contenuto del file configurations.json:

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ I server HttpFS e WebHDFS sono disabilitati per impostazione predefinita. Puoi abilitare nuovamente WebHDFS utilizzando la configurazione di Hadoop, `dfs.webhdfs.enabled`. Il server HttpFS può essere avviato utilizzando `sudo systemctl start hadoop-httpfs`.
+ Il protocollo HTTPS ora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una policy Amazon S3 VPCE per limitare l'accesso a specifici bucket, devi aggiungere il nuovo ARN del bucket Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` alla tua policy (sostituisci `$region` con la Regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS [Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzare HTTPS durante la connessione ai repository dei pacchetti ](https://forums.aws.amazon.com/ann.jspa?annID=8528). 
+ Hive: le prestazioni delle query di scrittura sono migliorate abilitando l'uso di una directory Scratch su HDFS per l'ultimo processo. I dati temporanei per il processo finale vengono scritti su HDFS anziché su Amazon S3 e le prestazioni sono migliorate perché i dati vengono spostati da HDFS alla posizione finale della tabella (Amazon S3) anziché tra i dispositivi Amazon S3.
+ Hive: miglioramento del tempo di compilazione delle query fino a 2,5 volte con Glue metastore Partition Pruning.
+ Per impostazione predefinita, quando UDFs i built-in vengono passati da Hive all'Hive Metastore Server, solo un sottoinsieme di quelli integrati UDFs viene passato al Glue Metastore poiché Glue supporta solo operatori di espressione limitata. Se hai impostato `hive.glue.partition.pruning.client=true`, quindi tutta la eliminazione delle partizioni avviene sul lato client. Se hai impostato `hive.glue.partition.pruning.server=true`, quindi tutta la eliminazione delle partizioni avviene sul lato server. 

**Problemi noti**
+ Le query Hue non funzionano in Amazon EMR 6.4.0 perché il server HttpFS di Apache Hadoop è disabilitato per impostazione predefinita. Per utilizzare Hue su Amazon EMR 6.4.0, avvia manualmente il server HttpFS sul nodo primario di Amazon EMR utilizzando `sudo systemctl start hadoop-httpfs` oppure [utilizza una fase di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).
+ La caratteristica di Amazon EMR Notebooks utilizzata con la rappresentazione utente di Livy non funziona perché HttpFS è disabilitato per impostazione predefinita. In questo caso, EMR Notebooks non può connettersi al cluster in cui è abilitata la rappresentazione di Livy. La soluzione alternativa consiste nell'avviare il server HttpFS prima di connettere EMR Notebooks al cluster utilizzando `sudo systemctl start hadoop-httpfs`.
+ In Amazon EMR versione 6.4.0, Phoenix non supporta il componente dei connettori Phoenix.
+ Per utilizzare le operazioni Spark con Apache Oozie, devi aggiungere la seguente configurazione al tuo file `workflow.xml` Oozie. In caso contrario, diverse librerie critiche come Hadoop e EMRFS non saranno presenti nella classpath degli esecutori Spark lanciati da Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.

## Versioni dei componenti 6.4.0
<a name="emr-640-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.3.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.18.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,47,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.13.1 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.13.1 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-4 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-4 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-4 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-4 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-4 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-4 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-4 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-4 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-4 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.4.4-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.4.4-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.4.4-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.4.4-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.4.4-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-5 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-5 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-5 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-5 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-5 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-5 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-5 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.8.0-amzn-0 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.8.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-trino | 0.8.0-amzn-0 | Libreria bundle per eseguire Trino con Hudi. | 
| hudi-spark | 0.8.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.9.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.8.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 10,1243 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.254.1-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.254.1-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.254.1-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| trino-coordinator | 359 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. | 
| trino-worker | 359 | Servizio per l'esecuzione di parti di una query. | 
| trino-client | 359 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40,2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.1.2-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.1.2-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.1.2-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.1.2-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 04.1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.5.7 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3,5,7 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.4.0
<a name="emr-640-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.4.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifica i valori nel file node.properties di Trino. | Not available. | 
| trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. | 
| trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. | 
| trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. | 
| trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. | 
| trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. | 
| trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. | 
| trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. | 
| trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. | 
| trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. | 
| trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. | 
| trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. | 
| trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. | 
| trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. | 
| trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.3.1 di Amazon EMR
<a name="emr-631-release"></a>

## Versioni dell'applicazione 6.3.1
<a name="emr-631-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.977 | 1,11,977 | 1,11,80 | 1,11,80 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hudi | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 
| Spark | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 350 | 343 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note di rilascio 6.3.1
<a name="emr-631-relnotes"></a>

Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.

**Modifiche, miglioramenti e problemi risolti**
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Il protocollo HTTPS ora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una policy Amazon S3 VPCE per limitare l'accesso a specifici bucket, devi aggiungere il nuovo ARN del bucket Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` alla tua policy (sostituisci `$region` con la Regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS [Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzare HTTPS durante la connessione ai repository dei pacchetti ](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problemi noti**
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.

## Versioni dei componenti 6.3.1
<a name="emr-631-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.2.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.18.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,46,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.12.1 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-3.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-3.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-3.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.6-amzn-1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.6-amzn-1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.6-amzn-1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.6-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-4 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-4 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-4 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.7.0-amzn-0 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.7.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Libreria bundle per eseguire PrestoSQL con Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.9.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.2.2 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.7.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 10,1243 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.245.1-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| prestosql-coordinator | 350 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. | 
| prestosql-worker | 350 | Servizio per l'esecuzione di parti di una query. | 
| prestosql-client | 350 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40.2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.1.1-amzn-0.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.1.1-amzn-0.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.1.1-amzn-0.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 04.1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.3.1
<a name="emr-631-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.3.1**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| prestosql-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.3.0 di Amazon EMR
<a name="emr-630-release"></a>

## Versioni dell'applicazione 6.3.0
<a name="emr-630-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.977 | 1,11,80 | 1,11,80 | 1,11,828 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4,7,1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 
| Spark | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 343 | 343 | 338 | 
| Zeppelin | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note del rilascio 6.3.0
<a name="emr-630-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.3.0. Le modifiche sono relative alla versione 6.2.0.

Data del rilascio iniziale: 12 maggio 2021

Ultimo aggiornamento: 9 agosto 2021

**Applicazioni supportate**
+ AWS SDK per Java versione 1.11.977
+ CloudWatch Sink versione 2.1.0
+ DynamoDB Connector versione 4.16.0
+ EMRFS versione 2.46.0
+ Amazon EMR Goodies versione 3.2.0
+ Amazon EMR Kinesis Connector versione 3.5.0
+ Amazon EMR Record Server versione 2.0.0
+ Amazon EMR Scripts versione 2.5.0
+ Flink versione 1.12.1
+ Ganglia versione 3.7.2
+ AWS Glue Hive Metastore Client versione 3.2.0
+ Hadoop versione 3.2.1-amzn-3
+ HBase versione 2.2.6-amzn-1
+ HBase-operator-tools 1.0.0
+ HCatalog versione 3.1.2-amzn-0
+ Hive versione 3.1.2-amzn-4
+ Hudi versione 0.7.0-amzn-0
+ Hue versione 4.9.0
+ Java JDK versione Corretto-8.282.08.1 (build 1.8.0\$1282-b08)
+ JupyterHub versione 1.2.0
+ Livy versione 0.7.0-incubating
+ MXNet versione 1.7.0
+ Oozie versione 5.2.1
+ Phoenix versione 5.0.0
+ Pig versione 0.17.0
+ Presto versione 0.245.1-amzn-0
+ PrestoSQL versione 350
+ Apache Ranger KMS (crittografia trasparente multi-master) versione 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.1.0
+ SageMaker Spark SDK versione 1.4.1
+ Scala versione 2.12.10 (VM server OpenJDK a 64 bit, Java 1.8.0\$1282)
+ Spark versione 3.1.1-amzn-0
+ spark-rapids 0.4.1
+ Sqoop versione 1.4.7
+ TensorFlow versione 2.4.1
+ tez versione 0.9.2
+ Zeppelin versione 0.9.0
+ Zookeeper versione 3.4.14
+ Connettori e driver: DynamoDB Connector 4.16.0

**Nuove funzionalità**
+ Amazon EMR supporta Amazon S3 Access Point, una funzionalità di Amazon S3 che consente di gestire facilmente l'accesso ai data lake condivisi. Utilizzando il tuo alias Amazon S3 Access Point, puoi semplificare l'accesso ai dati su larga scala su Amazon EMR. Puoi utilizzare Amazon S3 Access Point con tutte le versioni di Amazon EMR senza costi aggiuntivi in tutte le regioni in cui è disponibile AWS Amazon EMR. Per ulteriori informazioni sugli alias degli Access Point e degli Amazon S3 Access Point, consulta [Utilizzo di un alias in stile bucket per il punto di accesso](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) nella *Guida per l'utente di Amazon S3*.
+ I nuovi parametri API di `DescribeReleaseLabel` e `ListReleaseLabel` forniscono i dettagli dell'etichetta di rilascio di Amazon EMR. L'utente può elencare a livello di programmazione i rilasci disponibili nella regione in cui viene eseguita la richiesta API ed elencare le applicazioni disponibili per un'etichetta di rilascio specifica di Amazon EMR. I parametri dell'etichetta di rilascio elencano anche i rilasci di Amazon EMR che supportano un'applicazione specifica, ad esempio Spark. Queste informazioni possono essere utilizzate per avviare a livello di programmazione cluster Amazon EMR. Ad esempio, è possibile avviare un cluster utilizzando la versione più recente dai risultati di `ListReleaseLabel`. Per ulteriori informazioni, consulta [DescribeReleaseLabel](https://docs.aws.amazon.com/emr/latest/APIReference/API_DescribeReleaseLabel.html)e [ListReleaseLabels](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)consulta *Amazon EMR API* Reference.
+ Con Amazon EMR 6.3.0, è possibile avviare un cluster che si integra nativamente con Apache Ranger. Apache Ranger è un framework open source che consente di abilitare, monitorare e gestire la sicurezza completa dei dati attraverso la piattaforma Hadoop. Per ulteriori informazioni, consulta [Apache Ranger](https://ranger.apache.org/). L'integrazione nativa consente di utilizzare Apache Ranger per imporre un controllo granulare di accesso ai dati su Amazon EMR. Consulta [Integrazione di Amazon EMR con Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) nella Guida alla gestione di Amazon EMR.
+ Policy gestite con ambito: per allinearsi alle AWS best practice, Amazon EMR ha introdotto policy gestite predefinite con ambito EMR v2 in sostituzione delle politiche che verranno obsolete. Consulta [Policy gestite di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Stato del supporto di Instance Metadata Service (IMDS) V2: per Amazon EMR 6.2 o versioni successive, i componenti di Amazon EMR vengono utilizzati per tutte le chiamate IMDS. IMDSv2 Per le chiamate IMDS nel codice dell'applicazione, puoi utilizzare entrambi o configurare l'IMDS in modo che IMDSv1 venga utilizzato IMDSv2 solo per una maggiore sicurezza. IMDSv2 Se si disattiva IMDSv1 nelle versioni precedenti di Amazon EMR 6.x, si verifica un errore di avvio del cluster.

**Modifiche, miglioramenti e problemi risolti**
+ Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ La modalità di spiegazione dell'interfaccia utente di Spark SQL è cambiata di default da `extended` a `formatted` in [Spark 3.1](https://issues.apache.org/jira/browse/SPARK-31325). Amazon EMR l'ha ripristinata a `extended` per includere le informazioni sul piano logico nell'interfaccia utente di Spark SQL. Questa può essere ripristinata impostando `spark.sql.ui.explainMode` su `formatted`.
+ I seguenti commit sono stati sottoposti al backport dal ramo principale di Spark.

  - [[SPARK-34752]](https://issues.apache.org/jira/browse/SPARK-34752)[BUILD] Spostamento di Jetty a 9.4.37 per l'indirizzo CVE-2020-27223.

  - [[SPARK-34534]](https://issues.apache.org/jira/browse/SPARK-34534) Corregge l'ordine di BlockIds quando viene utilizzato per recuperare blocchi. FetchShuffleBlocks 

  - [[SPARK-34681]](https://issues.apache.org/jira/browse/SPARK-34681) [SQL] Correzione del bug per l'hash join esterno completo mescolato quando si costruisce il lato sinistro con condizione non uguale.

  - [[SPARK-34497]](https://issues.apache.org/jira/browse/SPARK-34497) [SQL] Correzione dei provider di connessione JDBC incorporati per ripristinare le modifiche al contesto di sicurezza JVM.
+ [https://github.com/NVIDIA/spark-rapids/issues/1378](https://github.com/NVIDIA/spark-rapids/issues/1378) Per dettagli sulla nuova configurazione `spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse`, consulta il [problema RAPIDS n. 1386](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html#emr-spark-performance-dynamic).
+ L'algoritmo predefinito del committer di output del file è stato modificato dall'algoritmo v2 all'algoritmo v1 in Spark 3.1 open source. Per ulteriori informazioni, consulta [Amazon EMR ottimizza le prestazioni di Spark: eliminazione dinamica delle partizioni](https://issues.apache.org/jira/browse/SPARK-33019).
+ Amazon EMR ha ripristinato l'algoritmo v2, il valore predefinito utilizzato nelle versioni di Amazon EMR precedenti alla 6.x, per evitare la regressione delle prestazioni. Per ripristinare il comportamento di Spark 3.1 open source, imposta `spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version` su `1`. Spark open source ha apportato questa modifica perché il task commit nell'algoritmo del committer v2 di output del file non è atomico, il che può causare un problema di correttezza dei dati di output in alcuni casi. Tuttavia, anche il task commit nell'algoritmo v1 non è atomico. In alcuni casi, il task commit include un'eliminazione eseguita prima di una rinomina. Ciò può causare un problema di correttezza dei dati silenti.
+ Risolti i problemi di dimensionamento gestito nelle versioni precedenti di Amazon EMR e apportati miglioramenti in modo da ridurre significativamente le percentuali di errore delle applicazioni.
+  AWS Installato il pacchetto Java SDK su ogni nuovo cluster. Si tratta di un singolo jar contenente tutti i servizi SDKs e le relative dipendenze, anziché i vasetti dei singoli componenti. Per ulteriori informazioni, consulta [Dipendenza dell'SDK in bundle](https://aws.amazon.com/blogs/developer/java-sdk-bundle/).

**Problemi noti**
+ Per i cluster della sottorete privata di Amazon EMR 6.3.0 e 6.2.0 non è possibile accedere all'interfaccia utente Web di Ganglia. Verrà visualizzato l'errore "access denied (403) (accesso negato (403))". Altri siti web UIs, come Spark, Hue, Zeppelin JupyterHub, Livy e Tez funzionano normalmente. Anche l'accesso all'interfaccia utente Web di Ganglia sui cluster della sottorete pubblica funziona normalmente. Per risolvere il problema, riavvia il servizio httpd sul nodo primario con `sudo systemctl restart httpd`. Questo problema è stato risolto in Amazon EMR 6.4.0.
+ Quando AWS Glue Data Catalog è abilitato, l'utilizzo di Spark per accedere a un AWS Glue DB con URI di posizione di stringa nullo potrebbe fallire. Questo accade alle versioni precedenti di Amazon EMR, ad eccezione di SPARK-31709 (https://issues.apache. org/jira/browse/SPARK-31709) lo rende applicabile a più casi. Ad esempio, quando si crea una tabella all'interno del AWS Glue DB predefinito il cui URI di posizione è una stringa nulla, `spark.sql("CREATE TABLE mytest (key string) location '/table_path';")` fallisce con il messaggio «Impossibile creare un percorso da una stringa vuota». Per ovviare a questo problema, imposta manualmente un URI di posizione dei tuoi database AWS Glue, quindi crea tabelle all'interno di questi database usando Spark.
+ In Amazon EMR 6.3.0, PrestoSQL è stato aggiornato dalla versione 343 alla versione 350. Sono state apportate due modifiche relative alla protezione rispetto all'open source. Il controllo dell'accesso al catalogo basato su file viene modificato da `deny` a `allow` quando le regole delle proprietà di tabella, schema o sessione non sono definite. Inoltre, il controllo dell'accesso al sistema basato su file viene modificato per supportare i file senza regole di catalogo definite. In questo caso, è consentito l'intero accesso ai cataloghi.

  Per ulteriori informazioni, consulta [Rilascio 344 (9 ottobre 2020)](https://trino.io/docs/current/release/release-344.html#security)
+ Nota che la directory utente di Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop e le relative sottodirectory, ma fai attenzione ai permessi su quelle directory per proteggere le informazioni sensibili.
+ **Limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 [corretto nelle versioni più recenti].** Versioni di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano su versioni precedenti di Amazon Linux 2 (), che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon EMR vengono creati con l'AMI predefinita. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster. 

  Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.

**Impostazione di un ulimit esplicito dalla riga di comando**

  1. Modifica `/etc/systemd/system/instance-controller.service` per aggiungere i seguenti parametri alla sezione Servizio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Riavvia InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Impostazione di un ulimit usando l'operazione di bootstrap (BA)**

  È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Importante**  
I cluster Amazon EMR che eseguono le AMI (Amazon Linux Machine Images) Amazon Linux o Amazon Linux 2 utilizzano il comportamento predefinito di Amazon Linux e non scaricano e installano automaticamente aggiornamenti importanti e critici dei kernel che richiedono un riavvio. Si tratta dello stesso comportamento assunto da altre istanze Amazon EC2 che eseguono l'AMI predefinita di Amazon Linux. Se nuovi aggiornamenti software Amazon Linux che richiedono un riavvio (ad esempio, aggiornamenti del kernel, NVIDIA e CUDA) risultano disponibili dopo il rilascio di una versione di Amazon EMR, le istanze del cluster EMR che eseguono l'AMI predefinita non scaricano e installano automaticamente tali aggiornamenti. Per ottenere gli aggiornamenti del kernel, puoi [personalizzare l'AMI di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) per [utilizzare l'AMI di Amazon Linux più recente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Per utilizzare le operazioni Spark con Apache Oozie, devi aggiungere la seguente configurazione al tuo file `workflow.xml` Oozie. In caso contrario, diverse librerie critiche come Hadoop e EMRFS non saranno presenti nella classpath degli esecutori Spark lanciati da Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.

## Versioni dei componenti 6.3.0
<a name="emr-630-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.2.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.18.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.1.0 | Connettore di EMR S3Select | 
| emrfs | 2,46,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.12.1 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-3 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-3 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-3 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.6-amzn-1 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.6-amzn-1 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.6-amzn-1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.6-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-4 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-4 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-4 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.7.0-amzn-0 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.7.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Libreria bundle per eseguire PrestoSQL con Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.9.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.2.2 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.7.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.68\$1 | Server di database MariaDB. | 
| nvidia-cuda | 10,1243 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.1 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.245.1-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| prestosql-coordinator | 350 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. | 
| prestosql-worker | 350 | Servizio per l'esecuzione di parti di una query. | 
| prestosql-client | 350 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 40.2 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.1.1-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.1.1-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.1.1-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 04.1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.3.0
<a name="emr-630-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.3.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. | 
| flink-log4j-session | Modifica le impostazioni di Flink log4j-session.properties per la sessione. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| prestosql-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.2.1 di Amazon EMR
<a name="emr-621-release"></a>

## Versioni dell'applicazione 6.2.1
<a name="emr-621-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.880 | 1,11,80 | 1,11,828 | 1,11,828 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.8.0 | 4.8.0 | 4,7,1 | 4,7,1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 
| Spark | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 343 | 338 | 338 | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note di rilascio 6.2.1
<a name="emr-621-relnotes"></a>

Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.

**Modifiche, miglioramenti e problemi risolti**
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ Il protocollo HTTPS ora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una policy Amazon S3 VPCE per limitare l'accesso a specifici bucket, devi aggiungere il nuovo ARN del bucket Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` alla tua policy (sostituisci `$region` con la Regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS [Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzare HTTPS durante la connessione ai repository dei pacchetti ](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problemi noti**
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.

## Versioni dei componenti 6.2.1
<a name="emr-621-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.1.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.0.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.16.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.0.0 | Connettore di EMR S3Select | 
| emrfs | 2,44,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.11.2 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-2.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-2.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-2.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.6-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.6-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.6-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.6-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-3 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-3 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-3 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.6.0-amzn-1 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.6.0-amzn-1 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Libreria bundle per eseguire PrestoSQL con Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.8.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.1.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.7.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.64\$1 | Server di database MariaDB. | 
| nvidia-cuda | 10.1.243 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.0 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.238.3-amzn-1 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.238.3-amzn-1 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| prestosql-coordinator | 343 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. | 
| prestosql-worker | 343 | Servizio per l'esecuzione di parti di una query. | 
| prestosql-client | 343 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 3.4.3 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.0.1-amzn-0.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.0.1-amzn-0.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.0.1-amzn-0.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 0,2,0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0-preview1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.2.1
<a name="emr-621-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.2.1**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Not available. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Not available. | 
| flink-log4j-yarn-session | Modifica le impostazioni di Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Not available. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| prestosql-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.2.0 di Amazon EMR
<a name="emr-620-release"></a>

## Versioni dell'applicazione 6.2.0
<a name="emr-620-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.880 | 1,11,828 | 1,11,828 | 1,11,711 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.8.0 | 4,7,1 | 4,7,1 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 |  -  | 
| Presto | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 
| Spark | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 |  -  | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 338 | 338 |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note del rilascio 6.2.0
<a name="emr-620-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.2.0. Le modifiche sono relative alla versione 6.1.0.

Data del rilascio iniziale: 9 dicembre 2020

Ultimo aggiornamento: 4 ottobre 2021

**Applicazioni supportate**
+ AWS SDK per Java versione 1.11.828
+ emr-record-server versione 1.7.0
+ Flink versione 1.11.2
+ Ganglia versione 3.7.2
+ Hadoop versione 3.2.1-amzn-1
+ HBase versione 2.2.6-amzn-0
+ HBase-operator-tools 1.0.0
+ HCatalog versione 3.1.2-amzn-0
+ Hive versione 3.1.2-amzn-3
+ Hudi versione 0.6.0-amzn-1
+ Hue versione 4.8.0
+ JupyterHub versione 1.1.0
+ Livy versione 0.7.0
+ MXNet versione 1.7.0
+ Oozie versione 5.2.0
+ Phoenix versione 5.0.0
+ Pig versione 0.17.0
+ Presto versione 0.238.3-amzn-1
+ PrestoSQL versione 343
+ Spark versione 3.0.1-amzn-0
+ spark-rapids 0.2.0
+ TensorFlow versione 2.3.1
+ Zeppelin versione 0.9.0-preview1
+ Zookeeper versione 3.4.14
+ Connettori e driver: DynamoDB Connector 4.16.0

**Nuove funzionalità**
+ HBase: è stata rimossa la ridenominazione in fase di commit e aggiunto il tracciamento persistente HFile . Consulta [Persistent HFile Tracking](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-hfile-tracking) nella *Amazon EMR Release Guide.*
+ HBase: Backported [Crea una configurazione che impone la memorizzazione nella cache dei blocchi durante la compattazione](https://issues.apache.org/jira/browse/HBASE-23066).
+ PrestoDB: miglioramenti all'eliminazione delle partizioni dinamiche. Join Reorder basato su regole funziona su dati non partizionati.
+ Policy gestite con ambito: per allinearsi alle AWS best practice, Amazon EMR ha introdotto policy gestite predefinite con ambito EMR v2 in sostituzione delle politiche che verranno obsolete. Consulta [Policy gestite di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Stato del supporto di Instance Metadata Service (IMDS) V2: per Amazon EMR 6.2 o versioni successive, i componenti di Amazon EMR vengono utilizzati per tutte le chiamate IMDS. IMDSv2 Per le chiamate IMDS nel codice dell'applicazione, puoi utilizzare entrambi o configurare l'IMDS in modo che IMDSv1 venga utilizzato IMDSv2 solo per una maggiore sicurezza. IMDSv2 Se si disattiva IMDSv1 nelle versioni precedenti di Amazon EMR 6.x, si verifica un errore di avvio del cluster.

**Modifiche, miglioramenti e problemi risolti**
+ Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ Spark: miglioramenti delle prestazioni del runtime Spark.

**Problemi noti**
+ Amazon EMR 6.2 ha autorizzazioni errate impostate sulla directory/etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance-logs vuota. Questo problema è stato risolto in Amazon EMR 6.3.0 e successive.

  Per risolvere il problema, esegui il seguente script come operazione di bootstrap all'avvio del cluster. 

  ```
  #!/bin/bash
  sudo chmod 644 /etc/cron.d/libinstance-controller-java
  ```
+ Per i cluster della sottorete privata di Amazon EMR 6.2.0 e 6.3.0 non è possibile accedere all'interfaccia utente Web di Ganglia. Verrà visualizzato l'errore "access denied (403) (accesso negato (403))". Altri siti Web UIs, come Spark, Hue, Zeppelin, Livy e JupyterHub Tez, funzionano normalmente. Anche l'accesso all'interfaccia utente Web di Ganglia sui cluster della sottorete pubblica funziona normalmente. Per risolvere il problema, riavvia il servizio httpd sul nodo primario con `sudo systemctl restart httpd`. Questo problema è stato risolto in Amazon EMR 6.4.0.
+ C'è un problema in Amazon EMR 6.2.0 in cui httpd ha continuamente esito negativo, causando la non disponibilità di Ganglia. Viene visualizzato un errore "cannot connect to the server (impossibile connettersi al server)". Per risolvere questo problema in un cluster che è già in esecuzione, abilita SSH sul nodo primario del cluster e aggiungi la riga `Listen 80` al file `httpd.conf` presente in `/etc/httpd/conf/httpd.conf`. Questo problema è stato risolto in Amazon EMR 6.3.0.
+ HTTPD ha esito negativo su cluster EMR 6.2.0 quando si utilizza una configurazione di sicurezza. Ciò rende l'interfaccia utente dell'applicazione Web Ganglia non disponibile. Per accedere all'interfaccia utente dell'applicazione Web Ganglia, aggiungi `Listen 80` al file `/etc/httpd/conf/httpd.conf` sul nodo primario del cluster. Per ulteriori informazioni su come connettersi al cluster, consulta la sezione [Connect to the Primary Node Using SSH](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html) (Connessione al nodo primario tramite SSH).

  Inoltre, EMR Notebooks non riesce a stabilire una connessione con cluster EMR 6.2.0 quando si utilizza una configurazione di sicurezza. Il notebook non riuscirà a elencare i kernel e a inviare processi Spark. Ti consigliamo invece di utilizzare EMR Notebooks con un'altra versione di Amazon EMR.
+ **Limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti [corretto nelle versioni più recenti AL2 ].** Versioni di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano su versioni precedenti di Amazon Linux 2 (), che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon EMR vengono creati con l'AMI predefinita. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster. 

  Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.

**Impostazione di un ulimit esplicito dalla riga di comando**

  1. Modifica `/etc/systemd/system/instance-controller.service` per aggiungere i seguenti parametri alla sezione Servizio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Riavvia InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Impostazione di un ulimit usando l'operazione di bootstrap (BA)**

  È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Importante**  
Amazon EMR 6.1.0 e 6.2.0 includono un problema di prestazioni che può influire in modo critico su tutte le operazioni di inserimento, upsert ed eliminazione di Hudi. Se prevedi di utilizzare Hudi con Amazon EMR 6.1.0 o 6.2.0, AWS contatta l'assistenza per ottenere un Hudi RPM con patch.
+ 
**Importante**  
I cluster Amazon EMR che eseguono le AMI (Amazon Linux Machine Images) Amazon Linux o Amazon Linux 2 utilizzano il comportamento predefinito di Amazon Linux e non scaricano e installano automaticamente aggiornamenti importanti e critici dei kernel che richiedono un riavvio. Si tratta dello stesso comportamento assunto da altre istanze Amazon EC2 che eseguono l'AMI predefinita di Amazon Linux. Se nuovi aggiornamenti software Amazon Linux che richiedono un riavvio (ad esempio, aggiornamenti del kernel, NVIDIA e CUDA) risultano disponibili dopo il rilascio di una versione di Amazon EMR, le istanze del cluster EMR che eseguono l'AMI predefinita non scaricano e installano automaticamente tali aggiornamenti. Per ottenere gli aggiornamenti del kernel, puoi [personalizzare l'AMI di Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) per [utilizzare l'AMI di Amazon Linux più recente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Gli artifact di Amazon EMR 6.2.0 Maven non vengono pubblicati. Saranno pubblicati con una futura versione di Amazon EMR.
+ Il HFile tracciamento persistente tramite la tabella dello HBase storefile system non supporta la funzionalità di replica della regione. HBase Per ulteriori informazioni sulla replica delle aree, consulta HBase [Timeline-Consistent](http://hbase.apache.org/book.html#arch.timelineconsistent.reads) High Available Reads.
+ Differenze di versione dei bucket Hive tra Amazon EMR 6.x e EMR 5.x

  EMR 5.x utilizza OOS Apache Hive 2, mentre EMR 6.x utilizza OOS Apache Hive 3. L'Hive2 open source utilizza bucket di versione 1, mentre l'Hive3 open source utilizza bucket di versione 2. Questa differenza di versione dei bucket tra Hive 2 (EMR 5.x) e Hive 3 (EMR 6.x) presuppone un funzionamento diverso dell'hashing dei bucket Hive. Vedere l'esempio sottostante.

  La tabella seguente è un esempio creato rispettivamente in EMR 6.x ed EMR 5.x.

  ```
  -- Using following LOCATION in EMR 6.x
  CREATE TABLE test_bucketing (id INT, desc STRING)
  PARTITIONED BY (day STRING)
  CLUSTERED BY(id) INTO 128 BUCKETS
  LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/';
  
  -- Using following LOCATION in EMR 5.x 
  LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
  ```

  Sono stati inseriti gli stessi dati in EMR 6.x ed EMR 5.x.

  ```
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data');
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
  ```

  Osservando la posizione S3, si nota che il nome del file di bucket è diverso, poiché la funzione di hashing è diversa tra EMR 6.x (Hive 3) e EMR 5.x (Hive 2).

  ```
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/
  2020-10-21 20:35:16         13 000025_0
  2020-10-21 20:35:22         14 000121_0
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/
  2020-10-21 20:32:07         13 000066_0
  2020-10-21 20:32:51         14 000072_0
  ```

  Puoi notare la differenza di versione anche eseguendo il comando riportato di seguito nella CLI Hive in EMR 6.x. Potrai notare che la CLI restituisce bucket di versione 2.

  ```
  hive> DESCRIBE FORMATTED test_bucketing;
  ...
  Table Parameters:
      bucketing_version       2
  ...
  ```
+ Problema noto nei cluster con più nodi primari e autenticazione Kerberos

  Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive. 

  Soluzione alternativa:
  + Abilita SSH come utente `hadoop` al primo nodo primario del cluster EMR con più nodi primari.
  +  Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In genere, il file keytab si trova in `/etc/hadoop.keytab` e l'entità principale si presenta nella forma di `hadoop/<hostname>@<REALM>`.
**Nota**  
Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.
+ Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
  + Due o più partizioni vengono scansionate dalla stessa tabella.
  + Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio `s3://bucket/table/p=a` è un prefisso di `s3://bucket/table/p=a b`.
  + Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere `/` (U\$1002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U\$10020) che compare tra a e b in `s3://bucket/table/p=a b`. Tieni presente che esistono altri 14 caratteri non di controllo: `!"#$%&‘()*+,-`. Per ulteriori informazioni, consulta la sezione [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/) (Tabella di codifica UTF-8 e caratteri Unicode).

  Per ovviare a questo problema, imposta la configurazione di `spark.sql.sources.fastS3PartitionDiscovery.enabled` su `false` nella classificazione di `spark-defaults`.

## Versioni dei componenti 6.2.0
<a name="emr-620-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.1.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-notebook-env | 1.0.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter | 
| emr-s3-dist-cp | 2.16.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.0.0 | Connettore di EMR S3Select | 
| emrfs | 2,44,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.11.2 | Applicazioni e script client a riga di comando Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-2 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-2 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-2 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.6-amzn-0 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.6-amzn-0 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.6-amzn-0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.6-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-3 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-3 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-3 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.6.0-amzn-1 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.6.0-amzn-1 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Libreria bundle per eseguire PrestoSQL con Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.8.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.1.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.7.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.64\$1 | Server di database MariaDB. | 
| nvidia-cuda | 10.1.243 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.0 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.238.3-amzn-1 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.238.3-amzn-1 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| prestosql-coordinator | 343 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. | 
| prestosql-worker | 343 | Servizio per l'esecuzione di parti di una query. | 
| prestosql-client | 343 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 3.4.3 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.0.1-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.0.1-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.0.1-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| spark-rapids | 0,2,0 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0-preview1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.2.0
<a name="emr-620-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta [Riconfigurazione di un gruppo di istanze in un cluster in esecuzione](emr-configure-apps-running-cluster.md).


**Classificazioni emr-6.2.0**  

| Classificazioni | Description | Operazioni di riconfigurazione | 
| --- | --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifica le impostazioni relative a docker. | Not available. | 
| emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | Not available. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | Not available. | 
| flink-log4j-yarn-session | Modifica le impostazioni di Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Not available. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. | 
| hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. | 
| hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | Not available. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. | 
| livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. | 
| pig-env | Change values in the Pig environment. | Not available. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifica i valori nel file node.properties di Presto. | Not available. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. | 
| prestosql-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. | 

# Rilascio 6.1.1 di Amazon EMR
<a name="emr-611-release"></a>

## Versioni dell'applicazione 6.1.1
<a name="emr-611-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.828 | 1,11,828 | 1,11,711 | 1,11,711 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,11,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4,7,1 | 4,7,1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note di rilascio 6.1.1
<a name="emr-611-relnotes"></a>

Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.

**Modifiche, miglioramenti e problemi risolti**
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ Il protocollo HTTPS ora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una policy Amazon S3 VPCE per limitare l'accesso a specifici bucket, devi aggiungere il nuovo ARN del bucket Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` alla tua policy (sostituisci `$region` con la Regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS [Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzare HTTPS durante la connessione ai repository dei pacchetti ](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versioni dei componenti 6.1.1
<a name="emr-611-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.1.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.0.0 | Connettore di EMR S3Select | 
| emrfs | 2.42,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.11.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-1.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-1.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-1.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.5 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.5 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.5 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.5 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.5 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-2 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-2 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.5.2-incubating-amzn-2 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire PrestoSQL con Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.7.1 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.1.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.6.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.64\$1 | Server di database MariaDB. | 
| nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.0 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.3.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.232 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.232 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.232 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| prestosql-coordinator | 338 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. | 
| prestosql-worker | 338 | Servizio per l'esecuzione di parti di una query. | 
| prestosql-client | 338 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 3.4.3 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.0.0-amzn-0.1 | Client a riga di comando Spark. | 
| spark-history-server | 3.0.0-amzn-0.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.0.0-amzn-0.1 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0.1 | Librerie Apache Spark necessarie per gli slave YARN. | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0-preview1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.1.1
<a name="emr-611-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).


**Classificazioni emr-6.1.1**  

| Classificazioni | Description | 
| --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | 
| emrfs-site | Modifica le impostazioni EMRFS. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | 
| flink-log4j-yarn-session | Modifica le impostazioni di Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | 
| hbase-env | Modifica i valori nell'ambiente. HBase | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | 
| hive-env | Modifica i valori nell'ambiente Hive. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | 
| hue-ini | Modifica i valori nel file ini di Hue | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | 
| livy-env | Modifica i valori nell'ambiente Livy. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | 
| pig-env | Change values in the Pig environment. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | 
| presto-config | Modifica i valori nel file config.properties di Presto. | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | 
| presto-node | Modifica i valori nel file node.properties di Presto. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | 
| prestosql-log | Modifica i valori nel file log.properties di Presto. | 
| prestosql-config | Modifica i valori nel file config.properties di Presto. | 
| prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | 
| prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | 
| prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | 
| prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | 
| prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | 
| prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | 
| prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | 
| prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | 
| prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | 
| prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | 
| prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | 
| prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | 
| prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | 
| prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | 
| prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | 
| prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | 
| prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | 
| prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | 
| spark-env | Modifica i valori nell'ambiente Spark. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | 

# Rilascio 6.1.0 di Amazon EMR
<a name="emr-610-release"></a>

## Versioni dell'applicazione 6.1.0
<a name="emr-610-app-versions"></a>

Questa versione include le seguenti applicazioni: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), e [https://zookeeper.apache.org](https://zookeeper.apache.org).

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.828 | 1,11,828 | 1,11,711 | 1,11,711 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,11,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4,7,1 | 4,7,1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note del rilascio 6.1.0
<a name="emr-610-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.1.0. Le modifiche sono relative alla versione 6.0.0.

Data del rilascio iniziale: 4 settembre 2020

Ultimo aggiornamento: 15 ottobre 2020

**Applicazioni supportate**
+ AWS SDK per Java versione 1.11.828
+ Flink versione 1.11.0
+ Ganglia versione 3.7.2
+ Hadoop versione 3.2.1-amzn-1
+ HBase versione 2.2.5
+ HBase-operator-tools 1.0.0
+ HCatalog versione 3.1.2-amzn-0
+ Hive versione 3.1.2-amzn-1
+ Hudi versione 0.5.2 in fase di sviluppo
+ Hue versione 4.7.1
+ JupyterHub versione 1.1.0
+ Livy versione 0.7.0
+ MXNet versione 1.6.0
+ Oozie versione 5.2.0
+ Phoenix versione 5.0.0
+ Presto versione 0.232
+ PrestoSQL versione 338
+ Spark versione 3.0.0-amzn-0
+ TensorFlow versione 2.1.0
+ Zeppelin versione 0.9.0-preview1
+ Zookeeper versione 3.4.14
+ Connettori e driver: DynamoDB Connector 4.14.0

**Nuove funzionalità**
+ I tipi di istanze ARM sono supportati a partire da Amazon EMR versione 5.30.0 e Amazon EMR versione 6.1.0.
+ I tipi di istanze per uso generico M6g sono supportati a partire dalle versioni di Amazon EMR 6.1.0 e 5.30.0. Per ulteriori informazioni, consulta [Tipi di istanza supportati](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html) nella *Guida alla gestione di Amazon EMR*.
+ La caratteristica del gruppo di collocamento EC2 è supportata a partire da Amazon EMR versione 5.23.0 come opzione per i cluster con più nodi primari. Attualmente, solo i tipi di nodi primari sono supportati dalla caratteristica del gruppo di collocamento e la strategia `SPREAD` viene applicata a tali nodi primari. La strategia `SPREAD` colloca un piccolo gruppo di istanze su hardware sottostante separato per evitare la perdita di più nodi primari in caso di guasto hardware. Per ulteriori informazioni, consulta [Integrazione di EMR con il gruppo di collocamento EC2](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-placementgroup.html) nella *Guida alla gestione di Amazon EMR*.
+ Scalabilità gestita: con la versione 6.1.0 di Amazon EMR, puoi abilitare Scalabilità gestita di Amazon EMR per aumentare o diminuire automaticamente il numero di istanze o unità nel cluster in base al carico di lavoro. Amazon EMR valuta continuamente i parametri dei cluster per prendere decisioni di dimensionamento che ottimizzano i cluster in termini di costi e velocità. Il dimensionamento gestito è disponibile anche su Amazon EMR versione 5.30.0 e successive, tranne 6.0.0. Per maggiori informazioni, consulta [Dimensionamento delle risorse del cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) nella *Guida alla gestione di Amazon EMR*.
+ PrestoSQL versione 338 è supportata con EMR 6.1.0. Per ulteriori informazioni, consulta [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html).
  + PrestoSQL è supportata solo su EMR 6.1.0 e versioni successive, non su EMR 6.0.0 o EMR 5.x.
  + Il nome dell'applicazione `Presto` continua ad essere utilizzato per installare PrestoDB sui cluster. Per installare PrestoSQL sui cluster, utilizza il nome dell'applicazione `PrestoSQL`.
  + È possibile installare PrestoDB o PrestoSQL, ma non è possibile installare entrambi in un singolo cluster. Se durante il tentativo di creare un cluster vengono specificati sia PrestoDB che PrestoSQL, si verifica un errore di convalida e la richiesta di creazione del cluster ha esito negativo.
  + PrestoSQL è supportato su entrambi i cluster single-master e muti-master. Nei cluster multi-master, è necessario un metastore Hive esterno per eseguire PrestoSQL o PrestoDB. Consulta la sezione [Applicazioni supportate in un cluster EMR con più nodi primari](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list).
+ Supporto per l'autenticazione automatica ECR su Apache Hadoop e Apache Spark con Docker: gli utenti di Docker possono utilizzare le immagini Docker da Docker Hub e Amazon Elastic Container Registry (Amazon ECR) per definire le dipendenze dell'ambiente e della libreria.

  Consulta [Configurazione di Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) ed [Esecuzione di applicazioni Spark con Docker utilizzando Amazon EMR 6.x](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ EMR supporta le transazioni Apache Hive ACID: Amazon EMR 6.1.0 aggiunge il supporto per le transazioni Hive ACID in modo che sia conforme alle proprietà ACID di un database. Con questa funzione, puoi eseguire operazioni `INSERT, UPDATE, DELETE,` e `MERGE` nelle tabelle gestite da Hive con dati in Amazon Simple Storage Service (Amazon S3). Questa è una caratteristica chiave per casi d'uso come l'importazione dati in streaming, il riavvio dei dati, gli aggiornamenti in blocco tramite MERGE e la graduale variazione delle dimensioni. Per ulteriori informazioni, inclusi esempi di configurazione e casi d'uso, consulta [Amazon EMR supporta le transazioni Apache Hive ACID](https://aws.amazon.com/blogs/big-data/amazon-emr-supports-apache-hive-acid-transactions).

**Modifiche, miglioramenti e problemi risolti**
+ Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ Apache Flink non è supportata su EMR 6.0.0, ma è supportata su EMR 6.1.0 con Flink 1.11.0. Si tratta della prima versione di Flink a supportare ufficialmente Hadoop 3. Consulta [Annuncio del rilascio di Apache Flink 1.11.0](https://flink.apache.org/news/2020/07/06/release-1.11.0.html).
+ Ganglia è stato rimosso dai pacchetti EMR 6.1.0 di default.

**Problemi noti**
+ **Limite «Numero massimo di file aperti» inferiore per le versioni precedenti AL2 [risolto nelle versioni più recenti].** Versioni di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano su versioni precedenti di Amazon Linux 2 (), che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon EMR vengono creati con l'AMI predefinita. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster. 

  Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.

**Impostazione di un ulimit esplicito dalla riga di comando**

  1. Modifica `/etc/systemd/system/instance-controller.service` per aggiungere i seguenti parametri alla sezione Servizio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Riavvia InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Impostazione di un ulimit usando l'operazione di bootstrap (BA)**

  È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Importante**  
Amazon EMR 6.1.0 e 6.2.0 includono un problema di prestazioni che può influire in modo critico su tutte le operazioni di inserimento, upsert ed eliminazione di Hudi. Se prevedi di utilizzare Hudi con Amazon EMR 6.1.0 o 6.2.0, AWS contatta l'assistenza per ottenere un Hudi RPM con patch.
+ Se si imposta una configurazione personalizzata della raccolta dei rifiuti con `spark.driver.extraJavaOptions` e`spark.executor.extraJavaOptions`, ciò comporterà un errore di driver/executor avvio con EMR 6.1 a causa di una configurazione della raccolta dei rifiuti in conflitto. Con il rilascio EMR 6.1.0, è invece necessario specificare la configurazione di garbage collection Spark personalizzata per driver ed executor con le proprietà `spark.driver.defaultJavaOptions` e `spark.executor.defaultJavaOptions`. Per maggiori informazioni, consulta [Ambiente di runtime Apache Spark](https://spark.apache.org/docs/latest/configuration.html#runtime-environment) e [Configurazione di garbage collection Spark su Amazon EMR 6.1.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html#spark-gc-config).
+ L'utilizzo di Pig con Oozie (e all'interno di Hue, dal momento che Hue utilizza le operazioni Oozie per eseguire gli script Pig) genera un errore che impedisce il caricamento di una libreria native-lzo. Questo messaggio di errore è informativo e non impedisce l'esecuzione di Pig.
+ Supporto della simultaneità di Hudi: attualmente, le scritture simultanee in una singola tabella Hudi non sono supportate. Inoltre, Hudi esegue il rollback di tutte le modifiche apportate dalle istanze di scrittura in corso prima di consentire l'avvio di una nuova istanza di scrittura. Le scritture simultanee possono interferire con questo meccanismo e introdurre condizioni di competizione, le quali possono causare il danneggiamento dei dati. È necessario assicurarsi che, come parte del flusso di lavoro di elaborazione dei dati, ci sia sempre una sola istanza di scrittura Hudi che opera su una tabella Hudi. Hudi supporta più istanze di lettura simultanee che operano sulla stessa tabella Hudi.
+ Problema noto nei cluster con più nodi primari e autenticazione Kerberos

  Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive. 

  Soluzione alternativa:
  + Abilita SSH come utente `hadoop` al primo nodo primario del cluster EMR con più nodi primari.
  +  Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In genere, il file keytab si trova in `/etc/hadoop.keytab` e l'entità principale si presenta nella forma di `hadoop/<hostname>@<REALM>`.
**Nota**  
Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.
+ Si è verificato un problema in Amazon EMR 6.1.0 che interessa i cluster che eseguono Presto. Dopo un lungo periodo di tempo (giorni), il cluster potrebbe generare errori come "su: failed to execute /bin/bash: Resource temporarily unavailable (su: impossibile eseguire /bin/bash: risorsa temporaneamente non disponibile)" o "shell request failed on channel 0 (richiesta shell non riuscita sul canale 0)". Questo problema è causato da un processo interno di Amazon EMR (InstanceController) che genera troppi processi leggeri (LWP), che alla fine fa sì che l'utente Hadoop superi il limite nproc. Ciò impedisce all'utente di aprire ulteriori processi. La soluzione a questo problema consiste nell'eseguire l'aggiornamento a EMR 6.2.0.

## Versioni dei componenti 6.1.0
<a name="emr-610-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.1.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 2.0.0 | Connettore di EMR S3Select | 
| emrfs | 2.42,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| flink-client | 1.11.0 | Applicazioni e script client a riga di comando Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.5 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.5 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.5 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.5 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.5 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-2 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-2 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.5.2-incubating-amzn-2 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire Presto con Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire PrestoSQL con Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire Spark con Hudi. | 
| hue-server | 4.7.1 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.1.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.6.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.64\$1 | Server di database MariaDB. | 
| nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.2.0 | Client a riga di comando Oozie. | 
| oozie-server | 5.2.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 4.3.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.232 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.232 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.232 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| prestosql-coordinator | 338 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. | 
| prestosql-worker | 338 | Servizio per l'esecuzione di parti di una query. | 
| prestosql-client | 338 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| pig-client | 0.17.0 | Client a riga di comando Pig. | 
| r | 3.4.3 | The R Project for Statistical Computing | 
| ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger | 
| spark-client | 3.0.0-amzn-0 | Client a riga di comando Spark. | 
| spark-history-server | 3.0.0-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. | 
| spark-on-yarn | 3.0.0-amzn-0 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. | 
| sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0-preview1 | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.1.0
<a name="emr-610-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).


**Classificazioni emr-6.1.0**  

| Classificazioni | Description | 
| --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | 
| emrfs-site | Modifica le impostazioni EMRFS. | 
| flink-conf | Modifica le impostazione flink-conf.yaml. | 
| flink-log4j | Modifica le impostazioni Flink log4j.properties. | 
| flink-log4j-yarn-session | Modifica le impostazioni di Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | 
| hbase-env | Modifica i valori nell'ambiente. HBase | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | 
| hive-env | Modifica i valori nell'ambiente Hive. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | 
| hue-ini | Modifica i valori nel file ini di Hue | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | 
| hudi-env | Modifica i valori nell'ambiente Hudi. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | 
| livy-env | Modifica i valori nell'ambiente Livy. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | 
| pig-env | Change values in the Pig environment. | 
| pig-properties | Modifica i valori nel file pig.properties di Pig. | 
| pig-log4j | Modifica i valori nel file log4j.properties di Pig. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | 
| presto-config | Modifica i valori nel file config.properties di Presto. | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | 
| presto-node | Modifica i valori nel file node.properties di Presto. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | 
| prestosql-log | Modifica i valori nel file log.properties di Presto. | 
| prestosql-config | Modifica i valori nel file config.properties di Presto. | 
| prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | 
| prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | 
| prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | 
| prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | 
| prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | 
| prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | 
| prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | 
| prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | 
| prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | 
| prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | 
| prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | 
| prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | 
| prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | 
| prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | 
| prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | 
| prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | 
| prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | 
| prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | 
| spark-env | Modifica i valori nell'ambiente Spark. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | 
| sqoop-env | Modifica i valori nell'ambiente di Sqoop. | 
| sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | 
| sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | 
| zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | 

# Rilascio 6.0.1 di Amazon EMR
<a name="emr-601-release"></a>

## Versioni dell'applicazione 6.0.1
<a name="emr-601-app-versions"></a>

Questa versione include le seguenti applicazioni: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://tez.apache.org/](https://tez.apache.org/)e. [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.828 | 1,11,828 | 1,11,711 | 1,11,711 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,11,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4,7,1 | 4,7,1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note di rilascio 6.0.1
<a name="emr-601-relnotes"></a>

Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.

**Modifiche, miglioramenti e problemi risolti**
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ Il protocollo HTTPS ora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una policy Amazon S3 VPCE per limitare l'accesso a specifici bucket, devi aggiungere il nuovo ARN del bucket Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` alla tua policy (sostituisci `$region` con la Regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS [Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzare HTTPS durante la connessione ai repository dei pacchetti ](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versioni dei componenti 6.0.1
<a name="emr-601-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.0.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 1.5.0 | Connettore di EMR S3Select | 
| emrfs | 2.39.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-0.1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0.1 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-0.1 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0.1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0.1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-0.1 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0.1 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0.1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0.1 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0.1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0.1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.3 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.3 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.3 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.3 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.3 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-0 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-0 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-0 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.5.0-incubating-amzn-1 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Libreria bundle per eseguire Presto con Hudi. | 
| hue-server | 4.4.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.0.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.6.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.5.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.64\$1 | Server di database MariaDB. | 
| nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.1.0 | Client a riga di comando Oozie. | 
| oozie-server | 5.1.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.230 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.230 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.230 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| r | 3.4.3 | The R Project for Statistical Computing | 
| spark-client | 2.4.4 | Client a riga di comando Spark. | 
| spark-history-server | 2.4.4 | Interfaccia utente Web per la visualizzazione di eventi registrati per il ciclo di vita di un'applicazione Spark completata. | 
| spark-on-yarn | 2.4.4 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 2.4.4 | Librerie Apache Spark necessarie per gli slave YARN. | 
| tensorflow | 1.14.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.0.1
<a name="emr-601-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).


**Classificazioni emr-6.0.1**  

| Classificazioni | Description | 
| --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | 
| emrfs-site | Modifica le impostazioni EMRFS. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | 
| hbase-env | Modifica i valori nell'ambiente. HBase | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | 
| hive-env | Modifica i valori nell'ambiente Hive. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | 
| hue-ini | Modifica i valori nel file ini di Hue | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | 
| livy-env | Modifica i valori nell'ambiente Livy. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | 
| presto-config | Modifica i valori nel file config.properties di Presto. | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | 
| presto-node | Modifica i valori nel file node.properties di Presto. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | 
| recordserver-env | Modifica i valori nell'ambiente EMR. RecordServer  | 
| recordserver-conf | Modificare i valori nel file erver.properties RecordServer di EMR. | 
| recordserver-log4j | Modifica i valori nel file log4j.properties RecordServer di EMR. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | 
| spark-env | Modifica i valori nell'ambiente Spark. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | 
| zookeeper-config | Modifica i valori nel file zoo.cfg. ZooKeeper | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | 

# Rilascio 6.0.0 di Amazon EMR
<a name="emr-600-release"></a>

## Versioni dell'applicazione 6.0.0
<a name="emr-600-app-versions"></a>

Questa versione include le seguenti applicazioni: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://tez.apache.org/](https://tez.apache.org/)e. [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 7.x](emr-release-app-versions-7.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 6.x](emr-release-app-versions-6.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 5.x](emr-release-app-versions-5.x.md)
+ [Versioni dell'applicazione nei rilasci di Amazon EMR 4.x](emr-release-app-versions-4.x.md)


**Informazioni sulla versione dell'applicazione**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK per Java | 1.11.828 | 1,11,828 | 1,11,711 | 1,11,711 | 
| Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,11,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4,7,1 | 4,7,1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Note del rilascio 6.0.0
<a name="emr-600-relnotes"></a>

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.0.0.

Data del rilascio iniziale: 10 marzo 2020

**Applicazioni supportate**
+ AWS SDK per Java versione 1.11.711
+ Ganglia versione 3.7.2
+ Hadoop versione 3.2.1
+ HBase versione 2.2.3
+ HCatalog versione 3.1.2
+ Hive versione 3.1.2
+ Hudi versione 0.5.0 in fase di sviluppo
+ Hue versione 4.4.0
+ JupyterHub versione 1.0.0
+ Livy versione 0.6.0
+ MXNet versione 1.5.1
+ Oozie versione 5.1.0
+ Phoenix versione 5.0.0
+ Presto versione 0.230
+ Spark versione 2.4.4
+ TensorFlow versione 1.14.0
+ Zeppelin versione 0.9.0-SNAPSHOT
+ Zookeeper versione 3.4.14
+ Connettori e driver: DynamoDB Connector 4.14.0

**Nota**  
Flink, Sqoop, Pig e Mahout non sono disponibili in Amazon EMR versione 6.0.0. 

**Nuove funzionalità**
+ Supporto runtime docker YARN – Applicazioni YARN, come i lavori Spark, ora possono essere eseguite nel contesto di un container Docker. Ciò consente di definire facilmente le dipendenze in un'immagine Docker senza la necessità di installare librerie personalizzate nel cluster Amazon EMR. Per ulteriori informazioni, consulta [Configurazione dell'integrazione Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) ed [Esecuzione di applicazioni Spark con Docker utilizzando Amazon EMR 6.0.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ Supporto LLAP Hive - Hive ora supporta la modalità di esecuzione LLAP per migliorare le prestazioni delle query. Per ulteriori informazioni, consulta la sezione relativa all'[utilizzo di LLAP Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-llap.html).

**Modifiche, miglioramenti e problemi risolti**
+ Questa è una versione per risolvere i problemi con Amazon EMR Scaling quando non riesce a up/scale ridimensionare correttamente un cluster o causa errori delle applicazioni.
+ È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
+ I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.
+ È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
+ È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo perché il daemon on-cluster di Amazon EMR non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro con l'esecuzione sul nodo primario. HDFS/YARN 
+ Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
+ Amazon Linux
  + Amazon Linux 2 è il sistema operativo per la serie EMR 6.x.
  + `systemd` viene utilizzato per la gestione dei servizi al posto di `upstart` utilizzato in Amazon Linux 1.
+ Java Development Kit (JDK)
  + Corretto JDK 8 è il JDK predefinito per la serie delle versioni EMR 6.x.
+ Scala
  + Scala 2.12 è usato con Apache Spark e Apache Livy.
+ Python 3
  + Python 3 è ora la versione predefinita di Python in EMR.
+ Etichette nodo YARN
  + A partire dalla serie di rilascio Amazon EMR 6.x, la funzione etichette nodo YARN è disabilitata per impostazione predefinita. Per impostazione predefinita, i processi master dell'applicazione possono essere eseguiti su entrambi i nodi di task e core. È possibile abilitare la caratteristica etichette nodo YARN configurando le seguenti proprietà: `yarn.node-labels.enabled` e `yarn.node-labels.am.default-node-label-expression`. Per ulteriori informazioni, consulta la sezione [Understanding Primary, Core, and Task Nodes](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-master-core-task-nodes.html) (Informazioni sui nodi primari, core e attività).

**Problemi noti**
+ **Limite «Numero massimo di file aperti» inferiore per le versioni precedenti AL2 [risolto nelle versioni più recenti].** Versioni di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano su versioni precedenti di Amazon Linux 2 (), che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon EMR vengono creati con l'AMI predefinita. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster. 

  Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.

**Impostazione di un ulimit esplicito dalla riga di comando**

  1. Modifica `/etc/systemd/system/instance-controller.service` per aggiungere i seguenti parametri alla sezione Servizio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Riavvia InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Impostazione di un ulimit usando l'operazione di bootstrap (BA)**

  È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ La shell interattiva Spark PySpark, tra cui SparkR e spark-shell, non supporta l'uso di Docker con librerie aggiuntive.
+ Per utilizzare Python 3 con Amazon EMR versione 6.0.0, è necessario aggiungere `PATH` a `yarn.nodemanager.env-whitelist`.
+ La funzionalità Live Long and Process (LLAP) non è supportata quando si utilizza AWS Glue Data Catalog come metastore per Hive.
+ Quando si utilizza Amazon EMR 6.0.0 con l'integrazione di Spark e Docker, è necessario configurare le istanze nel cluster con lo stesso tipo di istanza e la stessa quantità di volumi EBS per evitare errori durante l'invio di un processo Spark con il runtime di Docker.
+ [In Amazon EMR 6.0.0, la modalità di storage di Amazon HBase S3 è influenzata dal problema HBASE-24286.](https://issues.apache.org/jira/browse/HBASE-24286) HBase il master non può inizializzarsi quando il cluster viene creato utilizzando dati S3 esistenti.
+ Problema noto nei cluster con più nodi primari e autenticazione Kerberos

  Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive. 

  Soluzione alternativa:
  + Abilita SSH come utente `hadoop` al primo nodo primario del cluster EMR con più nodi primari.
  +  Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In genere, il file keytab si trova in `/etc/hadoop.keytab` e l'entità principale si presenta nella forma di `hadoop/<hostname>@<REALM>`.
**Nota**  
Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.

## Versioni dei componenti 6.0.0
<a name="emr-600-components"></a>

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con `emr` o `aws`. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo `CommunityVersion-amzn-EmrVersion`. `EmrVersion` inizia da 0. Ad esempio, se un componente della community open source denominato `myapp-component` con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come `2.2-amzn-2`.


| Componente | Versione | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 |  SageMaker SDK Amazon Spark | 
| emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. | 
| emr-goodies | 3.0.0 | Librerie utili per l'ecosistema Hadoop. | 
| emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. | 
| emr-s3-select | 1.5.0 | Connettore di EMR S3Select | 
| emrfs | 2.39.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. | 
| ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. | 
| ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. | 
| hadoop-client | 3.2.1-amzn-0 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0 | Servizio a livello di nodo HDFS per lo storage di blocchi. | 
| hadoop-hdfs-library | 3.2.1-amzn-0 | Libreria e client di riga di comando HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-0 | Endpoint HTTP per le operazioni HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0 | Servizio YARN per la gestione di container su un singolo nodo. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. | 
| hbase-hmaster | 2.2.3 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. | 
| hbase-region-server | 2.2.3 | Servizio per servire una o più HBase regioni. | 
| hbase-client | 2.2.3 | HBase client da riga di comando. | 
| hbase-rest-server | 2.2.3 | Servizio che fornisce un endpoint RESTful HTTP per. HBase | 
| hbase-thrift-server | 2.2.3 | Servizio che fornisce un endpoint Thrift a. HBase | 
| hcatalog-client | 3.1.2-amzn-0 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. | 
| hcatalog-server | 3.1.2-amzn-0 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Client a riga di comando Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-0 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Servizio per l'accettazione di query Hive come richieste Web. | 
| hudi | 0.5.0-incubating-amzn-1 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Libreria bundle per eseguire Presto con Hudi. | 
| hue-server | 4.4.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop | 
| jupyterhub | 1.0.0 | Server multi-utente per notebook Jupyter | 
| livy-server | 0.6.0-incubating | Interfaccia REST per l'interazione con Apache Spark | 
| nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP | 
| mxnet | 1.5.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. | 
| mariadb-server | 5.5.64\$1 | Server di database MariaDB. | 
| nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda | 
| oozie-client | 5.1.0 | Client a riga di comando Oozie. | 
| oozie-server | 5.1.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Le librerie Phoenix per server e client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica  | 
| presto-coordinator | 0.230 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. | 
| presto-worker | 0.230 | Servizio per l'esecuzione di parti di una query. | 
| presto-client | 0.230 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. | 
| r | 3.4.3 | The R Project for Statistical Computing | 
| spark-client | 2.4.4 | Client a riga di comando Spark. | 
| spark-history-server | 2.4.4 | Interfaccia utente Web per la visualizzazione di eventi registrati per il ciclo di vita di un'applicazione Spark completata. | 
| spark-on-yarn | 2.4.4 | Motore di esecuzione in memoria per YARN. | 
| spark-yarn-slave | 2.4.4 | Librerie Apache Spark necessarie per gli slave YARN. | 
| tensorflow | 1.14.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. | 
| tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. | 
| webserver | 2.4.41\$1 | Server Apache HTTP. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Notebook basato sul Web che consente l'analisi di dati interattiva. | 
| zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. | 
| zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. | 

## Classificazioni di configurazione 6.0.0
<a name="emr-600-class"></a>

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio `hive-site.xml`. Per ulteriori informazioni, consulta [Configurazione delle applicazioni](emr-configure-apps.md).


**Classificazioni emr-6.0.0**  

| Classificazioni | Description | 
| --- | --- | 
| capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | 
| container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | 
| container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | 
| core-site | Modifica i valori nel file core-site.xml di Hadoop. | 
| emrfs-site | Modifica le impostazioni EMRFS. | 
| hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | 
| hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | 
| hadoop-ssl-server | Modifica la configurazione server ssl hadoop | 
| hadoop-ssl-client | Modifica la configurazione client ssl hadoop | 
| hbase | Impostazioni curate da Amazon EMR per Apache. HBase | 
| hbase-env | Modifica i valori nell'ambiente. HBase | 
| hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | 
| hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | 
| hbase-site | Modifica i valori nel HBase file hbase-site.xml. | 
| hdfs-encryption-zones | Configura le zone di crittografia HDFS. | 
| hdfs-env | Modifica i valori nell'ambiente HDFS. | 
| hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | 
| hcatalog-env | Cambia i valori nell' HCatalogambiente. | 
| hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | 
| hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | 
| hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | 
| hive | Impostazioni Amazon EMR per Apache Hive. | 
| hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | 
| hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | 
| hive-env | Modifica i valori nell'ambiente Hive. | 
| hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | 
| hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | 
| hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | 
| hive-site | Modifica i valori nel file hive-site.xml di Hive | 
| hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | 
| hue-ini | Modifica i valori nel file ini di Hue | 
| httpfs-env | Modifica i valori nell'ambiente HTTPFS. | 
| httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | 
| hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | 
| hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | 
| hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | 
| hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | 
| jupyter-notebook-conf | Modifica i valori nel file jupyter\$1notebook\$1config.py di Jupyter Notebook. | 
| jupyter-hub-conf | Cambia i valori nel file jupyterhub\$1config.py JupyterHubs. | 
| jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | 
| jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | 
| livy-conf | Modifica i valori nel file livy.conf di Livy. | 
| livy-env | Modifica i valori nell'ambiente Livy. | 
| livy-log4j | Modifica le impostazioni Livy log4j.properties. | 
| mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | 
| mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | 
| oozie-env | Modifica i valori nell'ambiente di Oozie. | 
| oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | 
| oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | 
| phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | 
| phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | 
| phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | 
| phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | 
| presto-log | Modifica i valori nel file log.properties di Presto. | 
| presto-config | Modifica i valori nel file config.properties di Presto. | 
| presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | 
| presto-env | Modifica i valori nel file presto-env.sh di Presto. | 
| presto-node | Modifica i valori nel file node.properties di Presto. | 
| presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | 
| presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | 
| presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | 
| presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | 
| presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | 
| presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | 
| presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | 
| presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | 
| presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | 
| presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | 
| presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | 
| presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | 
| presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | 
| presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | 
| presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | 
| ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | 
| ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | 
| ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | 
| ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | 
| ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | 
| recordserver-env | Modifica i valori nell'ambiente EMR. RecordServer  | 
| recordserver-conf | Modificare i valori nel file erver.properties RecordServer di EMR. | 
| recordserver-log4j | Modifica i valori nel file log4j.properties RecordServer di EMR. | 
| spark | Impostazioni Amazon EMR per Apache Spark. | 
| spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | 
| spark-env | Modifica i valori nell'ambiente Spark. | 
| spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | 
| spark-log4j | Modifica i valori nel file log4j.properties di Spark. | 
| spark-metrics | Modifica i valori nel file metrics.properties di Spark. | 
| tez-site | Modifica i valori nel file tez-site.xml file di Tez. | 
| yarn-env | Modifica i valori nell'ambiente YARN. | 
| yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | 
| zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | 
| zookeeper-config | Modifica i valori nel file zoo.cfg. ZooKeeper | 
| zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | 