

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Amazon-EMR-5.x-Versionen
<a name="emr-release-5x"></a>

Dieser Abschnitt enthält Anwendungsversionen, Versionshinweise, Komponentenversionen und Konfigurationsklassifizierungen, die in jeder Amazon-EMR-5.x-Version verfügbar ist.

Wenn Sie einen Cluster starten, können Sie aus verschiedenen Versionen von Amazon EMR wählen. Auf diese Weise können Sie Anwendungsversionen testen und verwenden, die zu den Kompatibilitätsanforderungen passen. Sie geben die Versionsnummer zusammen mit dem *Release-Label* an. Versionsbezeichnungen haben die Form `emr-x.x.x`. Beispiel, `emr-7.12.0`.

Neue Amazon-EMR-Versionen werden über einen Zeitraum von mehreren Tagen in verschiedenen Regionen verfügbar gemacht, beginnend mit der ersten Region am ursprünglichen Veröffentlichungsdatum. Die neueste Version ist in diesem Zeitraum möglicherweise nicht in Ihrer Region verfügbar.

Eine umfassende Tabelle der Anwendungsversionen in jeder Amazon-EMR-5.x-Version finden Sie unter [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md).

**Topics**
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Amazon EMR Version 5.36.2](emr-5362-release.md)
+ [Amazon-EMR-Version 5.36.1](emr-5361-release.md)
+ [Amazon-EMR-Version 5.36.0](emr-5360-release.md)
+ [Amazon-EMR-Version 5.35.0](emr-5350-release.md)
+ [Amazon-EMR-Version 5.34.0](emr-5340-release.md)
+ [Amazon-EMR-Version 5.33.1](emr-5331-release.md)
+ [Amazon-EMR-Version 5.33.0](emr-5330-release.md)
+ [Amazon-EMR-Version 5.32.1](emr-5321-release.md)
+ [Amazon-EMR-Version 5.32.0](emr-5320-release.md)
+ [Amazon-EMR-Version 5.31.1](emr-5311-release.md)
+ [Amazon-EMR-Version 5.31.0](emr-5310-release.md)
+ [Amazon-EMR-Version 5.30.2](emr-5302-release.md)
+ [Amazon-EMR-Version 5.30.1](emr-5301-release.md)
+ [Amazon-EMR-Version 5.30.0](emr-5300-release.md)
+ [Amazon-EMR-Version 5.29.0](emr-5290-release.md)
+ [Amazon-EMR-Version 5.28.1](emr-5281-release.md)
+ [Amazon-EMR-Version 5.28.0](emr-5280-release.md)
+ [Amazon-EMR-Version 5.27.1](emr-5271-release.md)
+ [Amazon-EMR-Version 5.27.0](emr-5270-release.md)
+ [Amazon-EMR-Version 5.26.0](emr-5260-release.md)
+ [Amazon-EMR-Version 5.25.0](emr-5250-release.md)
+ [Amazon-EMR-Version 5.24.1](emr-5241-release.md)
+ [Amazon-EMR-Version 5.24.0](emr-5240-release.md)
+ [Amazon-EMR-Version 5.23.1](emr-5231-release.md)
+ [Amazon-EMR-Version 5.23.0](emr-5230-release.md)
+ [Amazon-EMR-Version 5.22.0](emr-5220-release.md)
+ [Amazon-EMR-Version 5.21.2](emr-5212-release.md)
+ [Amazon-EMR-Version 5.21.1](emr-5211-release.md)
+ [Amazon-EMR-Version 5.21.0](emr-5210-release.md)
+ [Amazon-EMR-Version 5.20.1](emr-5201-release.md)
+ [Amazon-EMR-Version 5.20.0](emr-5200-release.md)
+ [Amazon-EMR-Version 5.19.1](emr-5191-release.md)
+ [Amazon-EMR-Version 5.19.0](emr-5190-release.md)
+ [Amazon-EMR-Version 5.18.1](emr-5181-release.md)
+ [Amazon-EMR-Version 5.18.0](emr-5180-release.md)
+ [Amazon-EMR-Version 5.17.2](emr-5172-release.md)
+ [Amazon-EMR-Version 5.17.1](emr-5171-release.md)
+ [Amazon-EMR-Version 5.17.0](emr-5170-release.md)
+ [Amazon-EMR-Version 5.16.1](emr-5161-release.md)
+ [Amazon-EMR-Version 5.16.0](emr-5160-release.md)
+ [Amazon-EMR-Version 5.15.1](emr-5151-release.md)
+ [Amazon-EMR-Version 5.15.0](emr-5150-release.md)
+ [Amazon-EMR-Version 5.14.2](emr-5142-release.md)
+ [Amazon-EMR-Version 5.14.1](emr-5141-release.md)
+ [Amazon-EMR-Version 5.14.0](emr-5140-release.md)
+ [Amazon-EMR-Version 5.13.1](emr-5131-release.md)
+ [Amazon-EMR-Version 5.13.0](emr-5130-release.md)
+ [Amazon-EMR-Version 5.12.3](emr-5123-release.md)
+ [Amazon-EMR-Version 5.12.2](emr-5122-release.md)
+ [Amazon-EMR-Version 5.12.1](emr-5121-release.md)
+ [Amazon-EMR-Version 5.12.0](emr-5120-release.md)
+ [Amazon-EMR-Version 5.11.4](emr-5114-release.md)
+ [Amazon-EMR-Version 5.11.3](emr-5113-release.md)
+ [Amazon-EMR-Version 5.11.2](emr-5112-release.md)
+ [Amazon-EMR-Version 5.11.1](emr-5111-release.md)
+ [Amazon-EMR-Version 5.11.0](emr-5110-release.md)
+ [Amazon-EMR-Version 5.10.1](emr-5101-release.md)
+ [Amazon-EMR-Version 5.10.0](emr-5100-release.md)
+ [Amazon-EMR-Version 5.9.1](emr-591-release.md)
+ [Amazon-EMR-Version 5.9.0](emr-590-release.md)
+ [Amazon-EMR-Version 5.8.3](emr-583-release.md)
+ [Amazon-EMR-Version 5.8.2](emr-582-release.md)
+ [Amazon-EMR-Version 5.8.1](emr-581-release.md)
+ [Amazon-EMR-Version 5.8.0](emr-580-release.md)
+ [Amazon-EMR-Version 5.7.1](emr-571-release.md)
+ [Amazon-EMR-Version 5.7.0](emr-570-release.md)
+ [Amazon-EMR-Version 5.6.1](emr-561-release.md)
+ [Amazon-EMR-Version 5.6.0](emr-560-release.md)
+ [Amazon-EMR-Version 5.5.4](emr-554-release.md)
+ [Amazon-EMR-Version 5.5.3](emr-553-release.md)
+ [Amazon-EMR-Version 5.5.2](emr-552-release.md)
+ [Amazon-EMR-Version 5.5.1](emr-551-release.md)
+ [Amazon-EMR-Version 5.5.0](emr-550-release.md)
+ [Amazon-EMR-Version 5.4.1](emr-541-release.md)
+ [Amazon-EMR-Version 5.4.0](emr-540-release.md)
+ [Amazon-EMR-Version 5.3.2](emr-532-release.md)
+ [Amazon-EMR-Version 5.3.1](emr-531-release.md)
+ [Amazon-EMR-Version 5.3.0](emr-530-release.md)
+ [Amazon-EMR-Version 5.2.3](emr-523-release.md)
+ [Amazon-EMR-Version 5.2.2](emr-522-release.md)
+ [Amazon-EMR-Version 5.2.1](emr-521-release.md)
+ [Amazon-EMR-Version 5.2.0](emr-520-release.md)
+ [Amazon-EMR-Version 5.1.1](emr-511-release.md)
+ [Amazon-EMR-Version 5.1.0](emr-510-release.md)
+ [Amazon-EMR-Version 5.0.3](emr-503-release.md)
+ [Amazon-EMR-Version 5.0.2](emr-502-release.md)
+ [Amazon-EMR-Version 5.0.1](emr-501-release.md)
+ [Amazon-EMR-Version 5.0.0](emr-500-release.md)

# Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)
<a name="emr-release-app-versions-5.x"></a>

In der folgenden Tabelle sind die Anwendungsversionen aufgeführt, die in jeder Amazon-EMR-5.x-Version verfügbar sind.


**Informationen zur Anwendungsversion**  

|  | emr-5.36,2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.206 | 1.12.206 | 1.12.206 | 1.12.159 | 1.11.970 | 1,11,970 | 1,11,970 | 1,11,890 | 1,11,890 | 1.11.852 | 1,11.852 | 1,11.759 | 1,11.759 | 1,11.759 | 1,11,682 | 1,11,659 | 1,11.659 | 1,11,615 | 1,11,615 | 1,11.595 | 1,11.566 | 1,11.546 | 1,11.546 | 1,11.519 | 1,11.519 | 1,11.510 | 1.11.479 | 1.11.479 | 1.11.479 | 1.11.461 | 1.11.461 | 1,11.433 | 1,11.433 | 1,11.393 | 1,11.393 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.333 | 1,11.333 | 1,11.297 | 1,11.297 | 1,11.297 | 1,11.297 | 1,11.297 | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.238 | 1,11.238 | 1,11.238 | 1,11.238 | 1,11.238 | 1.11.221 | 1.11.221 | 1.11.183 | 1.11,183 | 1.11.160 | 1.11,160 | 1.11,160 | 1.11,160 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 0.227 | 0.227 | 0.227 | 0.224 | 0.224 | 0.220 | 0.220 | 0.219 | 0.219 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.214 | 0.214 | 0.212 | 0.212 | 0.210 | 0.210 | 0.206 | 0.206 | 0.206 | 0.203 | 0.203 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.188 | 0.188 | 0.188 | 0.188 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.184 | 0.184 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

# Amazon EMR Version 5.36.2
<a name="emr-5362-release"></a>

## 5.36.2 Anwendungsversionen
<a name="emr-5362-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.206 | 1.12.206 | 1.12.206 | 1.12.159 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.2 Versionshinweise
<a name="emr-5362-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen für Amazon EMR Version 5.36.2. Die Änderungen beziehen sich auf 5.36.1. Informationen zum Zeitplan der Veröffentlichung finden Sie im [Änderungsprotokoll](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5362-release.html#5362-changelog).

**Änderungen, Verbesserungen und behobene Probleme**
+ Diese Version verbessert die Cluster-Scale-Down-Logik, sodass Amazon EMR die Kernknoten nicht unter die HDFS-Replikationsfaktor-Einstellung für den Cluster herunterskaliert. Diese Verbesserung erfüllt die Anforderungen an die Datenredundanz und verringert die Wahrscheinlichkeit, dass ein Skalierungsvorgang zum Stillstand kommt. 
+ Diese Version fügt dem Cluster-Skalierungs-Workflow für EMR-Cluster, auf denen Presto oder Trino ausgeführt werden, einen neuen Wiederholungsmechanismus hinzu. Durch diese Verbesserung wird das Risiko verringert, dass die Clustergrößenänderung aufgrund eines einzigen fehlgeschlagenen Größenänderungsvorgangs auf unbestimmte Zeit ausgeführt wird. Sie verbessert auch die Clusterauslastung, da Ihr Cluster schneller hoch- und herunterskaliert wird.
+ Behebt ein Problem, bei dem Cluster-Scale-Down-Operationen möglicherweise zum Stillstand kommen, während Amazon EMR einen Core-Knoten ordnungsgemäß außer Betrieb nimmt und dieser vor der vollständigen Außerbetriebnahme fehlerhaft wird.
+ Verbessert die Stabilität eines Knotens in einem Hochverfügbarkeitscluster mit mehreren Primärknoten, wenn Amazon EMR einen einzelnen Knoten neu startet.
+ Optimiert die Protokollverwaltung mit Amazon EMR, das auf Amazon EC2 ausgeführt wird. Infolgedessen können Sie eine leichte Senkung der Speicherkosten für Ihre Cluster-Protokolle feststellen.
+ Verbessert die Verwaltung von ZooKeeper Transaktionsprotokolldateien, die auf primären Knoten verwaltet werden, um Szenarien zu minimieren, in denen die Protokolldateien außerhalb der Grenzen wachsen und Clusteroperationen unterbrechen.
+ Behebt einen seltenen Fehler, der dazu führen kann, dass ein Hochverfügbarkeitscluster mit mehreren Primärknoten ausfällt, weil er nicht mit dem Yarn kommunizieren kann. ResourceManager
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5362-release.html)

## 5.36.2 Komponentenversionen
<a name="emr-5362-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.16.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.5.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.21.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.7.0 | EMR S3Select-Konnektor | 
| emrfs | 2,51,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1,14,2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.9-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.9-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.9-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.9-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.9-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.10.1-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.10.1-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.10.1-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 11,0,194 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.267-amzn-1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.267-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.267-amzn-1 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.8-amzn-2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.8-amzn-2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.8-amzn-2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.36.2 Konfigurationsklassifizierungen
<a name="emr-5362-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.36.2-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 5.36.2 Änderungsprotokoll
<a name="5362-changelog"></a>


**Änderungsprotokoll für die Version 5.36.2 und die Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2024-05-28 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 5.36.2 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 28.05.2021 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 5.36.2 | 
| 20.05.2024-05 | Erstversion | Amazon EMR 5.36.2 wurde zuerst in begrenzten kommerziellen Regionen eingesetzt | 

# Amazon-EMR-Version 5.36.1
<a name="emr-5361-release"></a>

## 5.36.1 Anwendungsversionen
<a name="emr-5361-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.206 | 1.12.206 | 1.12.159 | 1.11.970 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.1 Versionshinweise
<a name="emr-5361-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.36.1. Änderungen beziehen sich auf Version 5.36.0. Informationen zum Zeitplan der Veröffentlichung finden Sie im [Änderungsprotokoll](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5361-release.html#5361-changelog).

**Änderungen, Verbesserungen und behobene Probleme**
+ Amazon EMR Version 5.36.1 bietet Unterstützung für die Archivierung von Protokollen in Amazon S3 während der Cluster-Herunterskalierung. In früheren 5.x-Versionen konnten Sie Protokolldateien nur während der Clusterbeendigung in Amazon S3 archivieren. Die Verbesserung stellt sicher, dass auf dem Cluster generierte Protokolldateien auch nach dem Beenden des Knotens auf Amazon S3 bestehen bleiben. Weitere Informationen finden Sie unter [Konfigurieren der Cluster-Protokollierung und des Debuggings](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Die Version 5.36.1 verbessert den On-Cluster-Log-Management-Daemon zur Überwachung zusätzlicher Protokollordner in Ihrem EMR-Cluster. Durch diese Verbesserung werden Szenarien mit übermäßiger Festplattenauslastung minimiert. 
+ Die Version 5.36.1 startet den Log-Management-Daemon auf dem Cluster automatisch neu, wenn er beendet wird. Durch diese Verbesserung wird das Risiko verringert, dass Knoten aufgrund übermäßiger Festplattenauslastung als fehlerhaft erscheinen.
+ Die Version 5.36.1 behebt ein Problem, bei dem Amazon-EMR-Daemons auf dem Primärknoten veraltete Metadaten für beendete Instances im Cluster beibehielten. Die Beibehaltung veralteter Daten kann dazu führen, dass die CPU- und Speicherauslastung innerhalb des Clusters unbegrenzt zunimmt, was letztendlich zu Clusterausfällen führen kann.
+ Bei Clustern, die mit mehreren Primärknoten gestartet werden, behebt die Version 5.36.1 ein Problem, bei dem ein Amazon-EC2-Hardwarefehler auf einem der Primärknoten zum Ausfall eines zweiten Primärknotens führen und Ihren Cluster instabil machen könnte.
+ Für Cluster, die mit Verschlüsselung während der Übertragung konfiguriert sind, unterstützt verwaltete Skalierung jetzt die *Datenmenge von Spark Shuffle.* Spark-Shuffle-Daten sind Daten, die Spark auf mehrere Partitionen verteilt, um bestimmte Operationen auszuführen. Beim Herunterskalieren ignoriert verwaltete Skalierung die Instances mit Shuffle-Daten. Dadurch werden wiederholte Auftragsversuche und Neuberechnungen verhindert, was sich negativ auf den Preis und die Leistung auswirkt. [Weitere Informationen zu Shuffle-Vorgängen finden Sie im Spark-Programmierhandbuch.](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations)
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5361-release.html)

## 5.36.1 Komponentenversionen
<a name="emr-5361-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.16.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.5.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.21.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.7.0 | EMR S3Select-Konnektor | 
| emrfs | 2,51,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1,14,2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.9-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.9-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.9-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.9-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.9-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.10.1-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.10.1-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.10.1-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 11,0,194 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.267-amzn-1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.267-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.267-amzn-1 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.8-amzn-2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.8-amzn-2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.8-amzn-2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.36.1 Konfigurationsklassifizierungen
<a name="emr-5361-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.36.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 5.36.1 Änderungsprotokoll
<a name="5361-changelog"></a>


**Änderungsprotokoll für Version 5.36.1 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-07-26 | Aktualisierung | Neue Betriebssystem-Release-Labels 2.0.20230612.0 und 2.0.20230628.0. | 
| 2023-05-25 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 5.36.1 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-05-09 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 5.36.1 | 
| 2023-05-04 | Erstversion | Amazon EMR 5.36.1 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 5.36.0
<a name="emr-5360-release"></a>

## 5.36.0 Anwendungsversionen
<a name="emr-5360-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.206 | 1.12.159 | 1.11.970 | 1,11,970 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hudi | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.0 Versionshinweise
<a name="emr-5360-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.36.0. Änderungen beziehen sich auf Version 5.35.0.

Erste Version: 15. Juni 2022

**Neue Features**
+ Amazon-EMR-Version 5.36.0 bietet Unterstützung für Data Definition Language (DDL) mit Apache Spark auf Apache Ranger-fähigen Clustern. Auf diese Weise können Sie Apache Ranger für die Verwaltung des Zugriffs für Operationen wie das Erstellen, Ändern und Löschen von Datenbanken und Tabellen aus einem Amazon-EMR-Cluster verwenden.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)
**Anmerkung**  
Diese Version erhält keine automatischen AMI-Updates mehr, da sie von einer weiteren Patch-Versionen abgelöst wurde. Die Patch-Version wird durch die Zahl nach dem zweiten Dezimalpunkt (`6.8.1`) gekennzeichnet. Um zu sehen, ob Sie die neueste Patch-Version verwenden, überprüfen Sie die verfügbaren Versionen im [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) oder überprüfen Sie die **Amazon-EMR-Versions-**Dropdownliste, wenn Sie einen Cluster in der Konsole erstellen, oder verwenden Sie die [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)-API- oder [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html)-CLI-Aktion. Um aktuelle Informationen über Neuerscheinungen erhalten, abonnieren Sie den RSS-Feed auf der Seite [Was ist neu?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).


| OsReleaseLabel (Amazon Linux-Version) | Amazon-Linux-Kernversion | Verfügbarkeitsdatum | Unterstützte Regionen | 
| --- | --- | --- | --- | 
| 2.0.20260302.0 | 4.14.355-280,714.amzn2 | 13. März 2026 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20260216.0 | 4.14.355-280,714.amzn2 | 25. Februar 2026 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20260120.1 | 4.14.355-280,713.amzn2 | 18. Februar 2026 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20251208.0 | 4.14.355-280,710.amzn2 | 13. Januar 2026 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20251121.0 | 4.14.355-280,708.amzn2 | 16. Dezember 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20251027.1 | 4.14.355-280,706.amzn2 | 10. November 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20250929.2 | 4.14.355-280,695.amzn2 | 13. Oktober 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20250818.2 | 4.14.355-280,672.amzn2 | 17. September 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20250808.1 | 4.14.355-280,664.amzn2 | 28. August 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20250721.2 | 4.14.355-280,652.amzn2 | 14. August 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20250623.0 | 4.14.355-277,647.amzn2 | 21. Juli 2025 | Afrika (Kapstadt), Asien-Pazifik (Hongkong), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Mumbai), Asien-Pazifik (Hyderabad), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Kanada (Zentral), Europa (Frankfurt), Europa (Zürich), Europa (Stockholm), Europa (Mailand), Europa (Mailand), Europa (Spanien), Europa (Irland), Europa (London), Europa (Paris), Israel (Tel Aviv), Naher Osten (VAE), Naher Osten (Bahrain), Südamerika (São Paulo), USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon) | 
| 2.0.20250610.0 | 4.14.355-277,647.amzn2 | 14. Juli 2025 | Europa (Stockholm), Naher Osten (Bahrain), China (Peking), Asien-Pazifik (Mumbai), Europa (Paris), Asien-Pazifik (Jakarta), USA Ost (Ohio), Afrika (Kapstadt), Europa (Irland), Naher Osten (VAE), Europa (Frankfurt), Südamerika (São Paulo), Asien-Pazifik (Hongkong), Asien-Pazifik (Hyderabad), USA Ost (Nord-Virginia), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Europa (London), Europa (Mailand), Asien-Pazifik (Tokio), (US-Ost), AWS GovCloud (US-West), USA West AWS GovCloud (Oregon), USA West (Nordkalifornien), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney) ), Israel (Tel Aviv), Kanada (Zentral), Europa (Spanien), China (Ningxia), Europa (Zürich) | 
| 2.0.20250527.1 | 4.14.355-277,647.amzn2 | 19. Juni 2025 | Europa (Stockholm), Naher Osten (Bahrain), Asien-Pazifik (Mumbai), Europa (Paris), Asien-Pazifik (Jakarta), USA Ost (Ohio), Afrika (Kapstadt), Europa (Irland), Naher Osten (VAE), Europa (Frankfurt), Südamerika (São Paulo), Asien-Pazifik (Hongkong), Asien-Pazifik (Hyderabad), USA Ost (Nord-Virginia), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka)), Europa (London), Asien-Pazifik (Melbourne), Europa (Mailand), Asien-Pazifik (Tokio), USA West (Oregon), USA West (Nordkalifornien), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Israel (Tel Aviv), Kanada (Zentral), Europa (Spanien), Europa (Zurich) | 
| 2.0.20250512.0 | 4.14.355-277,643.amzn2 | 04. Juni 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Mailand), Europa (Paris), Europa (Stockholm), Asien-Pazifik (Hongkong), Asien-Pazifik (Jakarta), Asien-Pazifik (Mumbai), Asien-Pazifik (Osaka), Asien-Pazifik (Seoul), Asien-Pazifik (Singapur), Asien Pazifik (Sydney), Asien-Pazifik (Tokio), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), (US-Ost), AWS GovCloud (US-West), China AWS GovCloud (Peking), China (Ningxia) | 
| 2.0.20250428,0 | 4.14.355-276,639.amzn2 | 23. Mai 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Mailand), Europa (Paris), Europa (Spanien), Europa (Stockholm), Europa (Zürich), Asien-Pazifik (Hongkong), Asien-Pazifik (Hyderabad), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Asien-Pazifik (Melbourne), Asien-Pazifik (Hongkong), Asien-Pazifik (Hyderabad), Asien-Pazifik (Jakarta), Asien-Pazifik (Melbourne), Asien-Pazifik (Melbourne), Asien-Pazifik (Mumbai), Asien-Pazifik (Osaka), Asien-Pazifik (Seoul), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Tokio), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Naher Osten (VAE), Kanada (Zentral), Israel (Tel Aviv) | 
| 2.0.20250414.0 | 4.14.355-276,618.amzn2 | 12. Mai 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20250321,0 | 4,14.355 | 09. April 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20250305,0 | 4,14,355 | 18. März 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20250220.0 | 4,14.355 | 08. März 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20250201.0 | 4,14.355 | 28. Februar 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20250123,4 | 4,14.355 | 27. Januar 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20250116,0 | 4,14.355 | 23. Januar 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada (Zentral), AWS GovCloud (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia) | 
| 2.0.20241217,0 | 4,14.355 | 8. Januar 2025 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada AWS GovCloud (Zentral), (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia), Asien Pazifik (Hyderabad), Naher Osten (VAE), Europa (Spanien), Europa (Zürich), Asien-Pazifik (Melbourne), Israel (Tel Aviv)  | 
| 2.0.20240709.1 | 4,14.348 | 23. Juli 2024 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Europa (Stockholm), Europa (Mailand), Europa (Frankfurt), Europa (Irland), Europa (London), Europa (Paris), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Jakarta), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain), Kanada AWS GovCloud (Zentral), (US-West), AWS GovCloud (US-Ost), China (Peking), China (Ningxia), Asien Pazifik (Hyderabad), Naher Osten (VAE), Europa (Spanien), Europa (Zürich), Asien-Pazifik (Melbourne), Israel (Tel Aviv)  | 
| 2.0.20230504.1 | 4,14.313 | 16. Mai 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20230418,0 | 4,14.311 | 3. Mai 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20230404.1 | 4,14.311 | 18. April 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20230404.0 | 4,14.311 | 10. April 2023 | USA Ost (Nord-Virginia), Europa (Paris) | 
| 2.0.20230320.0 | 4,14.309 | 30. März 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20230307,0 | 4,14.305 | 15. März 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20230207,0 | 4,14.304 | 22. Februar 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20230119.1 | 4,14.301 | 3. Februar 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20221210.1 | 4.14.301 | 22. Dezember 2023 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20221103.3 | 4,14.296 | 5. Dezember 2022 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20221004,0 | 4,14.294 | 02. November 2022 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20220912.1 | 4,14.291 | 7. Oktober 2022 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 
| 2.0.20220719.0 | 4,14.287 | 10. August 2022 | USA West (Nordkalifornien), Europa (Paris), Europa (Stockholm), Europa (Frankfurt), Asien-Pazifik (Mumbai), Naher Osten (Bahrain) | 
| 2.0.20220426,0 | 4,14.281 | 14. Juni 2022 | USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Kanada (Zentral), Europa (Stockholm), Europa (Irland), Europa (London), Europa (Paris), Europa (Frankfurt), Europa (Mailand), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Jakarta), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Osaka), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Afrika (Kapstadt), Südamerika (São Paulo), Naher Osten (Bahrain) | 

**Änderungen, Verbesserungen und behobene Probleme**
+ Amazon-EMR-5.36.0-Upgrades unterstützen jetzt: aws-sdk 1.12.206, Hadoop 2.10.1-amzn-4, Hive 2.3.9-amzn-2, Hudi 0.10.1-amzn-1, Spark 2.4.8-amzn-2, Presto 0.267-amzn-1, Amazon-Glue-Konnektor 1.18.0, EMRFS 2.51.0.

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.
+ Bei den Amazon-EMR-Versionen 5.36.0 und 6.6.0 bis 6.9.0 kann es bei `SecretAgent`- und `RecordServer`-Servicekomponenten aufgrund einer falschen Konfiguration des Dateinamenmusters in den Log4j2-Eigenschaften zu einem Verlust von Protokolldaten kommen. Die falsche Konfiguration führt dazu, dass die Komponenten nur eine Protokolldatei pro Tag generieren. Wenn die Rotationsstrategie angewendet wird, überschreibt sie die vorhandene Datei, anstatt wie erwartet eine neue Protokolldatei zu generieren. Um das Problem zu umgehen, verwenden Sie eine Bootstrap-Aktion, um jede Stunde Protokolldateien zu generieren, und fügen Sie eine automatisch inkrementierte Ganzzahl an den Dateinamen an, um die Rotation zu handhaben.

  Verwenden Sie für die Versionen Amazon EMR 6.6.0 bis 6.9.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Verwenden Sie für Amazon EMR 5.36.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## 5.36.0 Komponentenversionen
<a name="emr-5360-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.16.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.5.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.21.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.7.0 | EMR S3Select-Konnektor | 
| emrfs | 2,51,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1,14,2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.9-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.9-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.9-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.9-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.9-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.10.1-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.10.1-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.10.1-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 11,0,194 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.267-amzn-1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.267-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.267-amzn-1 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.8-amzn-2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.8-amzn-2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.8-amzn-2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.36.0 Konfigurationsklassifizierungen
<a name="emr-5360-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.36.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.35.0
<a name="emr-5350-release"></a>

## 5.35.0 Anwendungsversionen
<a name="emr-5350-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.159 | 1.11.970 | 1,11,970 | 1,11,970 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 
| Hive | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hudi | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.35.0 Versionshinweise
<a name="emr-5350-relnotes"></a>

Dies ist der Versionshinweis zu Amazon-EMR-Version 5.35.0.

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.35.0. Änderungen beziehen sich auf Version 5.34.0.

Erste Version: 30. März 2022

**Neue Features**
+ Amazon-EMR-Anwendungen der Version 5.35, die Log4j 1.x und Log4j 2.x verwenden, werden auf Log4j 1.2.17 (oder höher) bzw. Log4j 2.17.1 (oder höher) aktualisiert und erfordern keine Bootstrap-Aktionen zur Minderung der CVE-Probleme in früheren Versionen. Siehe [Ansatz zur Minderung von CVE-2021-44228](emr-log4j-vulnerability.md).

**Änderungen, Verbesserungen und behobene Probleme**


**Änderungen bei Flink**  

| Änderungstyp | Description | 
| --- | --- | 
| Upgrades | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Hadoop-Änderungen**  

| Änderungstyp | Description | 
| --- | --- | 
| Hadoop-Open-Source-Backports seit EMR 5.34.0 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hadoop-Änderungen und Korrekturen | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Änderungen bei Hive**  

| Änderungstyp | Description | 
| --- | --- | 
| Hive wurde auf die [Open-Source-Version 2.3.9](https://www.mail-archive.com/user@hive.apache.org/msg22311.html) aktualisiert, einschließlich dieser JIRA-Korrekturen | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hive-Open-Source-Backports seit EMR 5.34.0 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hive-Upgrades und -Korrekturen | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Neue Features | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Oozie-Änderungen**  

| Änderungstyp | Description | 
| --- | --- | 
| Oozie-Open-Source-Backports seit EMR 5.34.0 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Pig-Änderungen**  

| Änderungstyp | Description | 
| --- | --- | 
| Upgrades | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-5350-release.html) | 

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.35.0 Komponentenversionen
<a name="emr-5350-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.15.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.5.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.20.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.7.0 | EMR S3Select-Konnektor | 
| emrfs | 2,49,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1,14,2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-3 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.9-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.9-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.9-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.9-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.9-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.9-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.9-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.9.0-amzn-2 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.9.0-amzn-2 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.9.0-amzn-2 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 10,1243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.266-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.266-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.266-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.8-amzn-1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.8-amzn-1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.8-amzn-1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.35.0 Konfigurationsklassifizierungen
<a name="emr-5350-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.35.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.34.0
<a name="emr-5340-release"></a>

## 5.34.0 Anwendungsversionen
<a name="emr-5340-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.970 | 1,11,970 | 1,11,970 | 1,11,890 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 
| Hive | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hudi | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.34.0 Versionshinweise
<a name="emr-5340-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.34.0. Änderungen beziehen sich auf Version 5.33.1.

Erste Version: 20. Januar 2022

Aktualisiertes Veröffentlichungsdatum: 21. März 2022

**Neue Features**
+ **[Verwaltete Skalierung] Spark Shuffle Data Managed Scaling Optimization** – Für Amazon-EMR-Versionen 5.34.0 und höher sowie EMR-Versionen 6.4.0 und höher unterstützt verwaltete Skalierung jetzt Spark Shuffle Data (Daten, die Spark partitionsübergreifend verteilt, um bestimmte Operationen auszuführen). Weitere Informationen zu Shuffle-Vorgängen finden Sie unter [Nutzung von Managed Scaling in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) im *Verwaltungshandbuch für Amazon EMR* und [Spark-Programmierungs-Handbuch](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ [Hudi] Verbesserungen zur Vereinfachung der Hudi-Konfiguration. Optimistische Parallelitätssteuerung standardmäßig deaktiviert.

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Zuvor führte ein manueller Neustart des Ressourcenmanagers auf einem Multi-Master-Cluster dazu, dass Amazon-EMR-Cluster-Daemons wie Zookeeper alle zuvor stillgelegten oder verlorenen Knoten in der Zookeeper znode-Datei neu geladen haben. Dies führte dazu, dass die Standardgrenzwerte in bestimmten Situationen überschritten wurden. Amazon EMR entfernt jetzt die außer Betrieb genommenen oder verlorenen Knotendatensätze, die älter als eine Stunde sind, aus der Zookeeper-Datei, und die internen Grenzwerte wurden erhöht.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Zeppelin auf Version 0.10.0 upgegradet.
+ Livy Fix – auf 0.7.1 aktualisiert
+ Spark-Leistungsverbesserung – Heterogene Executors werden deaktiviert, wenn bestimmte Spark-Konfigurationswerte in EMR 5.34.0 überschrieben werden.
+ WebHDFS- und HttpFS-Server werden standardmäßig deaktiviert. Sie können WebHDFS mithilfe der Hadoop-Konfiguration `dfs.webhdfs.enabled` erneut aktivieren. Der HttpFS-Server kann mit `sudo systemctl start hadoop-httpfs` gestartet werden.

**Bekannte Probleme**
+ Das Amazon-EMR-Notebooks-Feature, das mit dem Livy-Benutzerwechsel verwendet wird, funktioniert nicht, da HttpFS standardmäßig deaktiviert ist. In diesem Fall kann das EMR Notebook keine Verbindung zu dem Cluster herstellen, für den Livy-Identitätswechsel aktiviert ist. Die Problemumgehung besteht darin, den HttpFS-Server zu starten, bevor Sie das EMR-Notebook mit dem Cluster `sudo systemctl start hadoop-httpfs` verbinden.
+ Hue-Abfragen funktionieren in Amazon EMR 6.4.0 nicht, da der Apache-Hadoop-HttpFS-Server standardmäßig deaktiviert ist. Um Hue auf Amazon EMR 6.4.0 zu verwenden, starten Sie den HttpFS-Server auf dem Amazon-EMR-Primärknoten entweder manuell mithilfe von `sudo systemctl start hadoop-httpfs` oder [verwenden Sie einen Amazon-EMR-Schritt.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)
+ Das Amazon-EMR-Notebooks-Feature, das mit dem Livy-Benutzerwechsel verwendet wird, funktioniert nicht, da HttpFS standardmäßig deaktiviert ist. In diesem Fall kann das EMR Notebook keine Verbindung zu dem Cluster herstellen, für den Livy-Identitätswechsel aktiviert ist. Die Problemumgehung besteht darin, den HttpFS-Server zu starten, bevor Sie das EMR-Notebook mit dem Cluster `sudo systemctl start hadoop-httpfs` verbinden.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.34.0 Komponentenversionen
<a name="emr-5340-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.14.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.4.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.18.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.7.0 | EMR S3Select-Konnektor | 
| emrfs | 2,48,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.13.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.13.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-2 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.8-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.8-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.8-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.8-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.8-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.8-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.8-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.9.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.9.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.9.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.13.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 10,1243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.261-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.261-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.261-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.8-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.8-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.8-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.34.0 Konfigurationsklassifizierungen
<a name="emr-5340-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.34.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.33.1
<a name="emr-5331-release"></a>

## 5.33.1 Anwendungsversionen
<a name="emr-5331-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.970 | 1,11,970 | 1,11,890 | 1,11,890 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hudi | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.33.1 Versionshinweise
<a name="emr-5331-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.33.0/5.33.1. Änderungen beziehen sich auf Version 5.32.0.

Erste Version: 19. April 2021

Letzte Aktualisierung: 9. August 2021

**Upgrades**
+ Der Amazon-Glue-Konnektor wurde auf Version 1.15.0 aktualisiert
+ Auf Version 1.11.970 aktualisiert AWS SDK für Java 
+ EMRFS auf Version 2.46.0. aktualisiert
+ EMR Goodies auf Version 2.14.0 aktualisiert
+ EMR Record Server auf Version 1.9.0 aktualisiert
+ EMR S3 Dist CP auf Version 2.18.0 aktualisiert
+ EMR Secret Agent Server auf Version 1.8.0 aktualisiert
+ Flink auf Version 1.12.1 aktualisiert
+ Hadoop wurde auf Version 2.10.1-amzn-1 aktualisiert
+ Upgrade von Hive auf Version 2.3.7-amzn-4
+ Hudi wurde auf Version 0.7.0 aktualisiert
+ Hue auf Version 4.9.0 aktualisiert
+ OpenCV wurde auf Version 4.5.0 aktualisiert
+ Presto auf Version 0.245.1-amzn-0 aktualisiert
+ R wurde auf Version 4.0.2 aktualisiert
+ Spark auf Version 2.4.7-amzn-1 aktualisiert
+ Auf Version 2.4.1 aktualisiert TensorFlow 
+ Upgrade von Zeppelin auf Version 0.9.0

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ **Konfigurieren eines Clusters zur Behebung von Leistungsproblemen mit Apache YARN Timeline Server Version 1 und 1.5**

  Apache YARN Timeline Server Version 1 und 1.5 können bei sehr aktiven, großen EMR-Clustern zu Leistungsproblemen führen, insbesondere bei `yarn.resourcemanager.system-metrics-publisher.enabled=true`, was die Standardeinstellung in Amazon EMR ist. Ein Open-Source-YARN-Timeline-Server v2 löst das Leistungsproblem im Zusammenhang mit der Skalierbarkeit des YARN Timeline Servers.

  Weitere Lösungen für dieses Problem umfassen:
  + Konfiguration von yarn.resourcemanager. system-metrics-publisher.enabled=false in yarn-site.xml.
  + Aktivieren des Fixes für dieses Problem beim Erstellen eines Clusters, wie unten beschrieben.

  Die folgenden Amazon-EMR-Versionen enthalten eine Lösung für dieses Leistungsproblem mit YARN Timeline Server.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  Um den Fix für eine der oben angegebenen Amazon-EMR-Versionen zu aktivieren, legen Sie diese Eigenschaften `true` in einer JSON-Konfigurationsdatei fest, die mit dem [`aws emr create-cluster`-Befehlsparameter](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html) `--configurations file://./configurations.json` übergeben wird. Oder aktivieren Sie den Fix über die Benutzeroberfläche der [Rekonfigurationskonsole](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Beispiel für den Inhalt der Datei configurations.json:

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ Die Spark-Laufzeit ist jetzt schneller, wenn Partitionsspeicherorte aus Hive Metastore für Spark-Insert-Abfragen abgerufen werden.
+ Aktualisierte Komponentenversionen. Eine Liste der Komponentenversionen finden Sie in diesem Handbuch unter [Über Amazon-EMR-Versionen](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html).
+ Das AWS Java SDK-Bundle wurde auf jedem neuen Cluster installiert. Dies ist ein einzelnes JAR, das alle Dienste SDKs und ihre Abhängigkeiten enthält, anstatt einzelne Komponenten-Jars. Weitere Informationen finden Sie unter [Gebündelte Java SDK Abhängigkeit](https://aws.amazon.com/blogs/developer/java-sdk-bundle/)
+ Probleme bei der verwalteten Skalierung in früheren Amazon-EMR-Versionen wurden behoben und Verbesserungen vorgenommen, sodass die Ausfallraten von Anwendungen erheblich reduziert wurden.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

**Neue Features**
+ Amazon EMR unterstützt Amazon S3 Access Points, ein Feature von Amazon S3, mit dem Sie den Zugriff auf gemeinsam genutzte Data Lakes einfach verwalten können. Mit Ihrem Alias von Amazon S3 Access Point können Sie Ihren Datenzugriff auf Amazon EMR in großem Umfang vereinfachen. Sie können Amazon S3 Access Points mit allen Versionen von Amazon EMR ohne zusätzliche Kosten in allen AWS Regionen verwenden, in denen Amazon EMR verfügbar ist. Weitere Informationen zu Amazon S3 Access Points und Zugangspunkt-Aliassen finden Sie unter [Verwenden eines Alias im Bucket-Stil für Ihren Zugangspunkt](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) im *Amazon-S3-Benutzerhandbuch*.
+ Amazon EMR-5.33 unterstützt neue Amazon-EC2-Instance-Typen: c5a, c5ad, c6gn, c6gd, m6gd, d3, d3en, m5zn, r5b, r6gd. Siehe [Unterstützte Instance-Typen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html).

**Bekannte Probleme**
+ **Niedrigeres Limit für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Für private Subnetz-Cluster von Amazon EMR 6.3.0 und 6.2.0 können Sie nicht auf die Ganglia-Webbenutzeroberfläche zugreifen. Sie erhalten die Fehlermeldung „Zugriff verweigert (403)“. Andere Websites UIs wie Spark, Hue JupyterHub, Zeppelin, Livy und Tez funktionieren normal. Der Zugriff auf die Ganglia-Web-Benutzeroberfläche auf öffentlichen Subnetzclustern funktioniert ebenfalls normal. Um dieses Problem zu beheben, starten Sie den httpd-Service auf dem Primärknoten mit `sudo systemctl restart httpd` neu. Dieses Problem wurde in Amazon EMR 6.4.0 behoben.
+ 
**Wichtig**  
EMR-Cluster, auf denen Amazon-Linux- oder Amazon-Linux-2-AMIs (Amazon Machine Images) ausgeführt werden, verwenden das Standardverhalten von Amazon Linux und laden wichtige und kritische Kernel-Updates, die einen Neustart erfordern, nicht automatisch herunter und installieren sie. Dies ist dasselbe Verhalten wie bei anderen Amazon-EC2-Instances, die das standardmäßige Amazon-Linux-AMI ausführen. Wenn neue Amazon-Linux-Softwareupdates, die einen Neustart erfordern (wie Kernel-, NVIDIA- und CUDA-Updates), nach der Veröffentlichung einer Amazon-EMR-Version verfügbar werden, laden EMR-Cluster-Instances, die das Standard-AMI ausführen, diese Updates nicht automatisch herunter und installieren sie. Um Kernel-Updates zu erhalten, können Sie [Ihr Amazon-EMR-AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) so anpassen, dass es [das neueste Amazon-Linux-AMI verwendet](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Die Konsolenunterstützung für die Erstellung einer Sicherheitskonfiguration, die die AWS Ranger-Integrationsoption spezifiziert, wird derzeit in der Region nicht unterstützt. GovCloud Die Sicherheitskonfiguration kann mit der CLI durchgeführt werden. Weitere Informationen finden [Sie unter Erstellen der EMR-Sicherheitskonfiguration](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Verwaltete Richtlinien mit Geltungsbereich: Um den AWS bewährten Methoden zu entsprechen, hat Amazon EMR verwaltete Standardrichtlinien mit EMR-Geltungsbereich der Version v2 eingeführt, die als Ersatz für Richtlinien dienen, die nicht mehr unterstützt werden. Weitere Informationen finden Sie unter [Verwaltete Richtlinien von Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.33.1 Komponentenversionen
<a name="emr-5331-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.14.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.2.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.18.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.6.0 | EMR S3Select-Konnektor | 
| emrfs | 2,46,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.12.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.12.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-1.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-1.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-1.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-1.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-1.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.7-amzn-4 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.7-amzn-4 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.7-amzn-4 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.7-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 2.3.7-amzn-4 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.7-amzn-4 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.7.0-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.7.0-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.7.0-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.2.2 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 10.1,243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.245.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.245.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.245.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-1.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.7-amzn-1.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.7-amzn-1.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.7-amzn-1.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.33.1 Konfigurationsklassifizierungen
<a name="emr-5331-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.33.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.33.0
<a name="emr-5330-release"></a>

## 5.33.0 Anwendungsversionen
<a name="emr-5330-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.970 | 1,11,890 | 1,11,890 | 1.11.852 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hudi | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.33.0 Versionshinweise
<a name="emr-5330-relnotes"></a>

## 5.33.0 Komponentenversionen
<a name="emr-5330-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.14.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.2.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.18.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.6.0 | EMR S3Select-Konnektor | 
| emrfs | 2,46,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.12.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.12.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.7-amzn-4 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.7-amzn-4 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.7-amzn-4 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.7-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 2.3.7-amzn-4 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.7-amzn-4 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.7.0-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.7.0-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.7.0-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.2.2 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 10,1243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.245.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.245.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.245.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.7-amzn-1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.7-amzn-1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.7-amzn-1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.33.0 Konfigurationsklassifizierungen
<a name="emr-5330-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.33.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.32.1
<a name="emr-5321-release"></a>

## 5.32.1 Anwendungsversionen
<a name="emr-5321-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.890 | 1,11,890 | 1.11.852 | 1,11.852 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.32.1 Versionshinweise
<a name="emr-5321-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.32.1 Komponentenversionen
<a name="emr-5321-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.1.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.17.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.6.0 | EMR S3Select-Konnektor | 
| emrfs | 2,45,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.11.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-0.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-0.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-0.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-0.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-0.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.7-amzn-3 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.7-amzn-3 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.7-amzn-3 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.7-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 2.3.7-amzn-3 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.7-amzn-3 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.6.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.6.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.8.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 10.1,243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.240.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.240.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.240.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.7-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.7-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.7-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.3.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.32.1 Konfigurationsklassifizierungen
<a name="emr-5321-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.32.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.32.0
<a name="emr-5320-release"></a>

## 5.32.0 Anwendungsversionen
<a name="emr-5320-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.890 | 1.11.852 | 1,11.852 | 1,11.759 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 
| Spark | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.32.0 Versionshinweise
<a name="emr-5320-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.32.0. Änderungen beziehen sich auf Version 5.31.0.

Erste Version: 8. Januar 2021

**Upgrades**
+ Der Amazon-Glue-Konnektor wurde auf Version 1.14.0 aktualisiert
+ Amazon SageMaker Spark SDK wurde auf Version 1.4.1 aktualisiert
+ Auf Version AWS SDK für Java 1.11.890 aktualisiert
+ EMR DynamoDB Connector wurde auf Version 4.16.0 aktualisiert
+ EMRFS auf Version 2.45.0 aktualisiert
+ EMR-Log-Analytics-Metriken wurden auf Version 1.18.0 aktualisiert
+  MetricsAndEventsApiGateway EMR-Client wurde auf Version 1.5.0 aktualisiert
+ EMR Record Server auf Version 1.8.0 aktualisiert
+ EMR S3 Dist CP auf Version 2.17.0 aktualisiert
+ EMR Record Server auf Version 1.7.0 aktualisiert
+ Flink auf Version 1.11.2 aktualisiert
+ Hadoop wurde auf Version 2.10.1-amzn-0 aktualisiert
+ Upgrade von Hive auf Version 2.3.7-amzn-3
+ Hue auf Version 4.8.0 aktualisiert
+ Mxnet wurde auf Version 1.7.0 aktualisiert
+ OpenCV wurde auf Version 4.4.0 aktualisiert
+ Presto auf Version 0.240.1-amzn-0 aktualisiert
+ Spark auf Version 2.4.7-amzn-0 aktualisiert
+ Auf Version TensorFlow 2.3.1 aktualisiert

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ Aktualisierte Komponentenversionen.
+ Eine Liste der Komponentenversionen finden Sie in diesem Handbuch unter [Über Amazon-EMR-Versionen](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html).

**Neue Features**
+ Ab Amazon EMR 5.32.0 und 6.5.0 ist die dynamische Executor-Größenanpassung für Apache Spark standardmäßig aktiviert. Sie können dieses Feature ein- oder ausschalten, indem Sie den Konfigurationsparameter `spark.yarn.heterogeneousExecutors.enabled` verwenden.
+ Unterstützungsstatus des Instance Metadata Service (IMDS) V2: Die Komponenten Amazon EMR 5.23.1, 5.27.1 und 5.32 oder höher werden für alle IMDS-Aufrufe verwendet. IMDSv2 Für IMDS-Aufrufe in Ihrem Anwendungscode können Sie sowohl als auch verwenden oder das IMDS so konfigurieren, dass es IMDSv1 nur für IMDSv2 zusätzliche Sicherheit verwendet wird. IMDSv2 Bei anderen 5.x-EMR-Versionen IMDSv1 führt die Deaktivierung zu einem Cluster-Startfehler.
+ Mit Amazon EMR 5.32.0 können Sie einen Cluster starten, der nativ in Apache Ranger integriert ist. Apache Ranger ist ein Open-Source-Framework zur Aktivierung, Überwachung und Verwaltung einer umfassenden Datensicherheit auf der gesamten Hadoop-Plattform. Weitere Informationen finden Sie unter [Apache Ranger](https://ranger.apache.org/). Dank der nativen Integration können Sie Ihren eigenen Apache Ranger verwenden, um eine detaillierte Datenzugriffskontrolle auf Amazon EMR durchzusetzen. Weitere Informationen finden Sie unter [Amazon EMR mit Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Amazon-EMR-Version 5.32.0 unterstützt Amazon EMR in EKS. Weitere Informationen zu den ersten Schritten mit EMR auf EKS finden Sie unter [Was ist Amazon EMR in EKS](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks.html).
+ Amazon-EMR-Version 5.32.0 unterstützt Amazon EMR Studio (Vorversion). Weitere Informationen zu den ersten Schritten mit EMR Studio finden Sie unter [Amazon EMR Studio (Vorversion)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio.html).
+ Verwaltete Richtlinien mit Geltungsbereich: Um den AWS bewährten Methoden zu entsprechen, hat Amazon EMR verwaltete Standardrichtlinien mit EMR-Geltungsbereich der Version v2 eingeführt, die als Ersatz für Richtlinien dienen, die nicht mehr unterstützt werden. Weitere Informationen finden Sie unter [Verwaltete Richtlinien von Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).

**Bekannte Probleme**
+ Für private Subnetz-Cluster von Amazon EMR 6.3.0 und 6.2.0 können Sie nicht auf die Ganglia-Webbenutzeroberfläche zugreifen. Sie erhalten die Fehlermeldung „Zugriff verweigert (403)“. Andere Websites wie Spark UIs, Hue, Zeppelin, Livy und Tez funktionieren JupyterHub normal. Der Zugriff auf die Ganglia-Web-Benutzeroberfläche auf öffentlichen Subnetzclustern funktioniert ebenfalls normal. Um dieses Problem zu beheben, starten Sie den httpd-Service auf dem Primärknoten mit `sudo systemctl restart httpd` neu. Dieses Problem wurde in Amazon EMR 6.4.0 behoben.
+ **Niedrigeres Limit für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Wichtig**  
EMR-Cluster, auf denen Amazon-Linux- oder Amazon-Linux-2-AMIs (Amazon Machine Images) ausgeführt werden, verwenden das Standardverhalten von Amazon Linux und laden wichtige und kritische Kernel-Updates, die einen Neustart erfordern, nicht automatisch herunter und installieren sie. Dies ist dasselbe Verhalten wie bei anderen Amazon-EC2-Instances, die das standardmäßige Amazon-Linux-AMI ausführen. Wenn neue Amazon-Linux-Softwareupdates, die einen Neustart erfordern (wie Kernel-, NVIDIA- und CUDA-Updates), nach der Veröffentlichung einer Amazon-EMR-Version verfügbar werden, laden EMR-Cluster-Instances, die das Standard-AMI ausführen, diese Updates nicht automatisch herunter und installieren sie. Um Kernel-Updates zu erhalten, können Sie [Ihr Amazon-EMR-AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) so anpassen, dass es [das neueste Amazon-Linux-AMI verwendet](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Die Konsolenunterstützung zur Erstellung einer Sicherheitskonfiguration, die die AWS Ranger-Integrationsoption spezifiziert, wird derzeit in der GovCloud Region nicht unterstützt. Die Sicherheitskonfiguration kann mit der CLI durchgeführt werden. Weitere Informationen finden [Sie unter Erstellen der EMR-Sicherheitskonfiguration](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Wenn AtRestEncryption oder die HDFS-Verschlüsselung auf einem Cluster aktiviert ist, der Amazon EMR 5.31.0 oder 5.32.0 verwendet, führen Hive-Abfragen zu der folgenden Laufzeitausnahme.

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.32.0 Komponentenversionen
<a name="emr-5320-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.1.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.17.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.6.0 | EMR S3Select-Konnektor | 
| emrfs | 2,45,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.11.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.1-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.1-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.1-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.1-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.1-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.7-amzn-3 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.7-amzn-3 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.7-amzn-3 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.7-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 2.3.7-amzn-3 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.7-amzn-3 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.6.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.6.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.8.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68 | MySQL-Datenbankserver. | 
| nvidia-cuda | 10,1243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.240.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.240.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.240.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.7-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.7-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.7-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.3.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.32.0 Konfigurationsklassifizierungen
<a name="emr-5320-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-5.32.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | Should not be reconfigured. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | Restarts EMR record server. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | Restarts EMR record server. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | Restarts EMR record server. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restarts Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 5.31.1
<a name="emr-5311-release"></a>

## 5.31.1 Anwendungsversionen
<a name="emr-5311-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.852 | 1,11.852 | 1,11.759 | 1,11.759 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.31.1 Versionshinweise
<a name="emr-5311-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.31.1 Komponentenversionen
<a name="emr-5311-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.15.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.15.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.6.0 | EMR S3Select-Konnektor | 
| emrfs | 2,43,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.11.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.0-amzn-0.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.0-amzn-0.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.0-amzn-0.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.0-amzn-0.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.0-amzn-0.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.7-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.7-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.7-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.7-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.7-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.7-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.6.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.6.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.7.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.6.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.3.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.238.3-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.238.3-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.238.3-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.6-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.6-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.6-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.6-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.1.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.31.1 Konfigurationsklassifizierungen
<a name="emr-5311-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.31.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.31.0
<a name="emr-5310-release"></a>

## 5.31.0 Anwendungsversionen
<a name="emr-5310-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.852 | 1,11.759 | 1,11.759 | 1,11.759 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.31.0 Versionshinweise
<a name="emr-5310-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.31.0. Änderungen beziehen sich auf Version 5.30.1.

Erste Version: 09. Oktober 2020

Letzte Aktualisierung: 15. Oktober 2020

**Upgrades**
+ Der Amazon-Glue-Konnektor wurde auf Version 1.13.0 aktualisiert
+ Amazon SageMaker Spark SDK wurde auf Version 1.4.0 aktualisiert
+ Der Amazon-Kinesis-Konnektor wurde auf Version 3.5.9 aktualisiert 
+ Auf Version AWS SDK für Java 1.11.852 aktualisiert
+ BigTop-Tomcat wurde auf Version 8.5.56 aktualisiert
+ EMR FS wurde auf Version 2.43.0 aktualisiert
+  MetricsAndEventsApiGateway EMR-Client wurde auf Version 1.4.0 aktualisiert
+ EMR S3 Dist CP wurde auf Version 2.15.0 aktualisiert
+ EMR S3 Select wurde auf Version 1.6.0 aktualisiert
+ Flink wurde auf Version 1.11.0 aktualisiert
+ Hadoop wurde auf Version 2.10.0 aktualisiert
+ Hive wurde auf Version 2.3.7 aktualisiert
+ Hudi wurde auf Version 0.6.0 aktualisiert
+ Hue wurde auf Version 4.7.1 aktualisiert
+ Auf Version JupyterHub 1.1.0 aktualisiert
+ Mxnet wurde auf Version 1.6.0 aktualisiert
+ OpenCV wurde auf Version 4.3.0 aktualisiert
+ Presto wurde auf Version 0.238.3 aktualisiert
+ Auf Version TensorFlow 2.1.0 aktualisiert

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ [Hive Spaltenstatistiken](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-ColumnStatistics) werden für Amazon-EMR-5.31.0 und höher unterstützt.
+ Aktualisierte Komponentenversionen.
+ Support für EMRFS S3EC V2 in Amazon EMR 5.31.0. In den S3-Java-SDK-Versionen 1.11.837 und höher wurde der Verschlüsselungsclient Version 2 (S3EC V2) mit verschiedenen Sicherheitsverbesserungen eingeführt. Weitere Informationen finden Sie hier:
  + S3 Blogbeitrag: [Updates für den Amazon S3 Encryption Client](https://aws.amazon.com/blogs/developer/updates-to-the-amazon-s3-encryption-client/).
  + AWS SDK für Java Entwicklerhandbuch: [Migrieren Sie Verschlüsselungs- und Entschlüsselungsclients auf V2](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/s3-encryption-migration.html#s3-cse-update-code).
  + EMR-Verwaltungshandbuch: [Amazon-S3-Clientseitige Verschlüsselung](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-emrfs-encryption-cse.html).

  Der Encryption Client V1 ist aus Gründen der Abwärtskompatibilität weiterhin im SDK verfügbar.

**Neue Features**
+ **Niedrigeres Limit für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Mit Amazon EMR 5.31.0 können Sie einen Cluster starten, der in Lake Formation integriert ist. Diese Integration ermöglicht eine detaillierte Datenfilterung auf Spaltenebene für Datenbanken und Tabellen im Glue-Datenkatalog. AWS Es ermöglicht Lake Formation über ein Unternehmens-Identitätssystem eine verbundene einmalige Anmeldung bei EMR Notebooks oder Apache Zeppelin. Weitere Informationen über [Integgieren von Amazon EMR mit AWS Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html) finden Sie im *Verwaltungshandbuch für Amazon EMR*.

  Amazon EMR with Lake Formation ist derzeit in 16 AWS Regionen verfügbar: USA Ost (Ohio und Nord-Virginia), USA West (Nordkalifornien und Oregon), Asien-Pazifik (Mumbai, Seoul, Singapur, Sydney und Tokio), Kanada (Zentral), Europa (Frankfurt, Irland, London, Paris und Stockholm), Südamerika (São Paulo).

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.
+ Wenn AtRestEncryption oder die HDFS-Verschlüsselung auf einem Cluster aktiviert ist, der Amazon EMR 5.31.0 oder 5.32.0 verwendet, führen Hive-Abfragen zu der folgenden Laufzeitausnahme.

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.31.0 Komponentenversionen
<a name="emr-5310-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.15.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.15.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.6.0 | EMR S3Select-Konnektor | 
| emrfs | 2,43,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.11.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.10.0-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.10.0-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.10.0-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.10.0-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.10.0-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.7-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.7-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.7-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.7-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.7-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.7-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.6.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-spark | 0.6.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hudi-presto | 0.6.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.7.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.6.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.3.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4,14,3- -1,4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.238.3-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.238.3-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.238.3-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.6-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.6-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.6-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.6-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.1.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.31.0 Konfigurationsklassifizierungen
<a name="emr-5310-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.31.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.30.2
<a name="emr-5302-release"></a>

## 5.30.2 Anwendungsversionen
<a name="emr-5302-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.759 | 1,11.759 | 1,11.759 | 1,11,682 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hadoop | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.232 | 0.227 | 
| Spark | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.2 Versionshinweise
<a name="emr-5302-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.30.2 Komponentenversionen
<a name="emr-5302-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.5.0 | EMR S3Select-Konnektor | 
| emrfs | 2.40.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.10.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-6.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-6.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-6.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-6.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-6.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.6-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.6-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.6-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.6-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.6-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.2-incubating | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.2-incubating | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.6.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.3- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.232 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.232 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.232 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.5-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.5-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.5-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.30.2 Konfigurationsklassifizierungen
<a name="emr-5302-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.30.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.30.1
<a name="emr-5301-release"></a>

## 5.30.1 Anwendungsversionen
<a name="emr-5301-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.759 | 1,11.759 | 1,11,682 | 1,11,659 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.1 Versionshinweise
<a name="emr-5301-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.30.1. Änderungen beziehen sich auf Version 5.30.0.

Erstveröffentlichungsdatum: 30. Juni 2020

Letzte Aktualisierung: 24. August 2020

**Änderungen, Verbesserungen und behobene Probleme**
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ Es wurde ein Problem behoben, bei dem der Instance-Controller-Prozess unendlich viele Prozesse ausgelöst hat.
+ Es wurde ein Problem behoben, bei dem Hue keine Hive-Abfrage ausführen konnte, die Meldung „Datenbank ist gesperrt“ angezeigt wurde und die Ausführung von Abfragen verhindert wurde.
+ Es wurde ein Spark-Problem behoben, durch das mehr Aufgaben gleichzeitig auf dem EMR-Cluster ausgeführt werden konnten.
+ Es wurde ein Problem mit dem Jupyter Notebook behoben, das den Fehler „Zu viele Dateien öffnen“ auf dem Jupyter-Server verursachte.
+ Ein Problem mit den Startzeiten von Clustern wurde behoben.

**Neue Features**
+ Persistente Anwendungsschnittstellen für die Tez-Benutzeroberfläche und den YARN-Timeline-Server sind mit den Amazon-EMR-Versionen 6.x und EMR-Version 5.30.1 und höher verfügbar. Durch den Linkzugriff mit einem Klick auf den persistenten Anwendungsverlauf können Sie schnell auf den Jobverlauf zugreifen, ohne einen Webproxy über eine SSH-Verbindung einrichten zu müssen. Protokolle für aktive und beendete Cluster sind 30 Tage nach Ende der Anwendung verfügbar. Weitere Informationen finden Sie unter [Ansicht der Benutzeroberflächen für persistente Anwendungen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html) im *Verwaltungshandbuch für Amazon EMR* an.
+ EMR Notebook Execution APIs ist verfügbar, um EMR-Notebooks über ein Skript oder eine Befehlszeile auszuführen. Durch die Möglichkeit, EMR-Notebookausführungen ohne die AWS Konsole zu starten, zu stoppen, aufzulisten und zu beschreiben, können Sie ein EMR-Notebook programmgesteuert steuern. Mithilfe einer parametrisierten Notebook-Zelle können Sie verschiedene Parameterwerte an ein Notebook übergeben, ohne für jeden neuen Satz von Parameterwerten eine Kopie des Notebooks erstellen zu müssen. Siehe [EMR-API-Aktionen](https://docs.aws.amazon.com/emr/latest/APIReference/API_Operations.html). Beispielcode finden Sie unter [Beispielbefehle zur programmatischen Ausführung von EMR Notebooks](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-headless.html).

**Bekannte Probleme**
+ **Niedrigerer Grenzwert für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **EMR Notebooks**

  Das Feature, mit der Sie Kernel und zusätzliche Python-Bibliotheken auf dem Cluster-Primärknoten installieren können, ist in EMR-Version 5.30.1 standardmäßig deaktiviert. Weitere Informationen zu diesem Feature finden Sie unter [Installation von Kernels und Python-Bibliotheken auf einem Cluster-Primärknoten](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html).

  Um das Feature zu aktivieren, gehen Sie wie folgt vor:

  1. Stellen Sie sicher, dass die der Servicerolle für EMR Notebooks zugeordnete Berechtigungsrichtlinie die folgende Aktion zulässt:

     `elasticmapreduce:ListSteps`

     Weitere Informationen finden Sie unter [Servicerolle für EMR-Notebooks](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-service-role.html).

  1. Verwenden Sie den AWS CLI , um einen Schritt auf dem Cluster auszuführen, der EMR Notebooks einrichtet, wie im folgenden Beispiel gezeigt. *us-east-1*Ersetzen Sie durch die Region, in der sich Ihr Cluster befindet. Weitere Informationen finden Sie unter [Hinzufügen von Schritten zu einem Cluster mithilfe AWS CLI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).

     ```
     aws emr add-steps  --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
     ```
+ **Verwaltete Skalierung**

  Verwaltete Skalierungsvorgänge auf Clustern der Versionen 5.30.0 und 5.30.1, ohne dass Presto installiert ist, können zu Anwendungsausfällen führen oder dazu führen, dass eine einheitliche Instance-Gruppe oder Instance-Flotte unverändert im Status `ARRESTED` bleibt, insbesondere wenn auf einen Herunterskalierungsvorgang schnell ein Skalierungsvorgang folgt.

  Um dieses Problem zu umgehen, wählen Sie Presto als zu installierende Anwendung, wenn Sie einen Cluster mit den Amazon-EMR-Versionen 5.30.0 und 5.30.1 erstellen, auch wenn Ihr Auftrag Presto nicht benötigt.
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.30.1 Komponentenversionen
<a name="emr-5301-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.5.0 | EMR S3Select-Konnektor | 
| emrfs | 2.40.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.10.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.6-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.6-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.6-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.6-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.6-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.2-incubating | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.2-incubating | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.6.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.3- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.232 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.232 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.232 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.5-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.5-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.5-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.30.1 Konfigurationsklassifizierungen
<a name="emr-5301-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.30.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.30.0
<a name="emr-5300-release"></a>

## 5.30.0 Anwendungsversionen
<a name="emr-5300-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.759 | 1,11,682 | 1,11,659 | 1,11.659 | 
| Python | 2,7, 3,7 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.227 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.0 Versionshinweise
<a name="emr-5300-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.30.0. Änderungen beziehen sich auf Version 5.29.0.

Erste Version: 13. Mai 2020

Letzte Aktualisierung: 25. Juni 2020

**Upgrades**
+ Auf Version 1.11.759 aktualisiert AWS SDK für Java 
+ Amazon SageMaker Spark SDK wurde auf Version 1.3.0 aktualisiert
+ EMR Record Server auf Version 1.6.0 aktualisiert
+ Flink auf Version 1.10.0 aktualisiert
+ Ganglia auf Version 3.7.2 aktualisiert
+ Auf Version HBase 1.4.13 aktualisiert
+ Hudi auf Version 0.5.2-incubating aktualisiert
+ Hue auf Version 4.6.0 aktualisiert
+ Auf Version JupyterHub 1.1.0 aktualisiert
+ Livy auf Version 0.7.0-incubating aktualisiert
+ Oozie auf Version 5.2.0 aktualisiert
+ Presto auf Version 0.232 aktualisiert
+ Spark auf Version 2.4.5 aktualisiert
+ Konnektoren und Treiber aktualisiert: Amazon Glue Connector 1.12.0; Amazon Kinesis Connector 3.5.0; EMR DynamoDB Connector 4.14.0

**Neue Features**
+ **EMR Notebooks** – Bei Verwendung mit EMR-Clustern, die mit 5.30.0 erstellt wurden, werden EMR-Notebooks-Kernel auf dem Cluster ausgeführt. Dies verbessert die Notebook-Leistung und ermöglicht es Ihnen, Kernel zu installieren und anzupassen. Sie können Python-Bibliotheken auch auf dem Cluster-Primärknoten installieren. Weitere Informationen finden Sie unter [Installieren und Verwenden von Kernels und Bibliotheken](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html) im *Management Guide für EMR*.
+ **Verwaltete Skalierung** – Mit Amazon EMR ab Version 5.30.0 können Sie die verwaltete EMR-Skalierung aktivieren, um die Anzahl der Instances oder Einheiten in Ihrem Cluster basierend auf der Workload automatisch zu erhöhen oder zu verringern. Amazon EMR wertet Cluster-Metriken kontinuierlich aus, um Skalierungsentscheidungen zu treffen, die Ihre Cluster für Kosten und Geschwindigkeit optimieren. Weitere Informationen finden Sie unter [Skalieren von Clusterressourcen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) im *Verwaltungshandbuch für Amazon EMR*.
+ **In Amazon S3 gespeicherte Protokolldateien verschlüsseln** — Mit Amazon EMR Version 5.30.0 und höher können Sie in Amazon S3 gespeicherte Protokolldateien mit einem vom Kunden verwalteten Schlüssel verschlüsseln. AWS KMS Weitere Informationen finden Sie unter [Verschlüsselte gespeicherte Protokolldateien in Amazon S3](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html#emr-log-encryption) im *Verwaltungshandbuch für Amazon EMR*.
+ **Unterstützung von Amazon Linux 2** – In EMR Version 5.30.0 und höher verwendet EMR das Betriebssystem Amazon Linux 2. Das neue benutzerdefinierte AMIs (Amazon Machine Image) muss auf dem Amazon Linux 2-AMI basieren. Weitere Informationen finden Sie unter [Verwenden eines benutzerdefinierten AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html).
+ **Ordnungsgemäßes Presto Auto Scaling** – EMR-Cluster mit 5.30.0 können mit einer Auto-Scaling-Zeitüberschreitung festgelegt werden, die Presto-Aufgaben Zeit zum Abschluss der Ausführung gibt, bevor ihr Knoten stillgelegt wird. Weitere Informationen finden Sie unter [Auto Scaling von Presto mit ordnungsgemäßer Stilllegung verwenden](presto-graceful-autoscale.md).
+ **Flotteninstance-Erstellung mit neuer Zuweisungsstrategieoption** – Eine neue Zuweisungsstrategieoption ist in EMR-Version 5.12.1 und höher verfügbar. Sie bietet eine schnellere Cluster-Bereitstellung, eine genauere Spot-Zuweisung und weniger Unterbrechungen von Spot Instances. Aktualisierungen für nicht standardmäßige EMR-Servicerollen sind erforderlich. Sehen Sie unter [Konfigurieren von Instance-Flotten](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-instance-fleet.html).
+ **Befehle sudo systemctl stop und sudo systemctl start** – In EMR Version 5.30.0 und höher, die das Betriebssystem Amazon Linux 2 verwenden, verwendet EMR die Befehle `sudo systemctl stop` und `sudo systemctl start`, um Services neu zu starten. Weitere Informationen finden Sie unter [Wie starte ich einen Service in Amazon EMR?](https://aws.amazon.com/premiumsupport/knowledge-center/restart-service-emr/).

**Änderungen, Verbesserungen und behobene Probleme**
+ EMR Version 5.30.0 installiert Ganglia standardmäßig nicht. Sie können Ganglia explizit für die Installation auswählen, wenn Sie einen Cluster erstellen.
+ Spark-Leistungsoptimierungen.
+ Presto-Leistungsoptimierungen.
+ Python 3 ist der Standard für Amazon-EMR-Version 5.30.0 und höher.
+ Die standardmäßige verwaltete Sicherheitsgruppe für den Zugriff auf Services in privaten Subnetzen wurde mit neuen Regeln aktualisiert. Wenn Sie benutzerdefinierte Sicherheitsgruppe für den Servicezugriff verwenden, müssen Sie dieselben Regeln wie die standardmäßige verwaltete Sicherheitsgruppe einschließen. Weitere Informationen finden Sie unter [Amazon-EMR-verwaltete Sicherheitsgruppe für den Servicezugriff (private Subnetze)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-man-sec-groups.html#emr-sg-elasticmapreduce-sa-private). Wenn Sie eine benutzerdefinierte Servicerolle für Amazon EMR verwenden, müssen Sie die Berechtigung zum `ec2:describeSecurityGroups` erteilen, damit EMR überprüfen kann, ob die Sicherheitsgruppen korrekt erstellt wurden. Wenn Sie `EMR_DefaultRole` verwenden, ist diese Berechtigung bereits in der standardmäßigen verwalteten Richtlinie enthalten.

**Bekannte Probleme**
+ **Niedrigeres Limit für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **Verwaltete Skalierung**

  Verwaltete Skalierungsvorgänge auf Clustern der Versionen 5.30.0 und 5.30.1, ohne dass Presto installiert ist, können zu Anwendungsausfällen führen oder dazu führen, dass eine einheitliche Instance-Gruppe oder Instance-Flotte unverändert im Status `ARRESTED` bleibt, insbesondere wenn auf einen Herunterskalierungsvorgang schnell ein Skalierungsvorgang folgt.

  Um dieses Problem zu umgehen, wählen Sie Presto als zu installierende Anwendung, wenn Sie einen Cluster mit den Amazon-EMR-Versionen 5.30.0 und 5.30.1 erstellen, auch wenn Ihr Auftrag Presto nicht benötigt.
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.
+ Die Standard-Datenbank-Engine für Hue 4.6.0 ist SQLite, was zu Problemen führt, wenn Sie versuchen, Hue mit einer externen Datenbank zu verwenden. Um dieses Problem zu beheben, setzen Sie `engine` in Ihrer `hue-ini` Konfigurationsklassifizierung auf `mysql`. Dieses Problem wurde in Amazon-EMR-Version 5.30.1 behoben.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 5.30.0 Komponentenversionen
<a name="emr-5300-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.13.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.0.0 | Conda env für emr Notebook | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.5.0 | EMR S3Select-Konnektor | 
| emrfs | 2.40.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.10.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.13 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.13 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.13 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.13 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.13 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.6-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.6-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.6-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.6-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.6-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.2-incubating | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.2-incubating | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.6.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.3- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.232 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.232 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.232 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.5-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.5-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.5-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.30.0 Konfigurationsklassifizierungen
<a name="emr-5300-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.30.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.29.0
<a name="emr-5290-release"></a>

## 5.29.0 Anwendungsversionen
<a name="emr-5290-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.682 | 1,11,659 | 1,11.659 | 1,11,615 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.227 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.29.0 Versionshinweise
<a name="emr-5290-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.29.0. Änderungen beziehen sich auf Version 5.28.1.

Erste Version: 17. Januar 2020

**Upgrades**
+ Auf Version 1.11.682 aktualisiert AWS SDK für Java 
+ Upgrade von Hive auf Version 2.3.6
+ Flink wurde auf Version 1.9.1 aktualisiert
+ EmrFS wurde auf Version 2.38.0 aktualisiert
+ EMR DynamoDB Connector wurde auf Version 4.13.0 aktualisiert

**Änderungen, Verbesserungen und behobene Probleme**
+ Spark
  + Spark-Leistungsoptimierungen.
+ EMRFS
  + Management Guide aktualisiert die Standardeinstellungen von emrfs-site.xml für eine konsistente Ansicht.

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.29.0 Komponentenversionen
<a name="emr-5290-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.13.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.12.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.13.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.4.0 | EMR S3Select-Konnektor | 
| emrfs | 2.38.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.9.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.10 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.10 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.10 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.10 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.10 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.6-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.6-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.6-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.6-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.6-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.6-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.6-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.0-incubating | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.0-incubating | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.3- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.227 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.227 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.227 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.29.0 Konfigurationsklassifizierungen
<a name="emr-5290-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.29.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.28.1
<a name="emr-5281-release"></a>

## 5.28.1 Anwendungsversionen
<a name="emr-5281-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.659 | 1,11.659 | 1,11,615 | 1,11,615 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.224 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.28.1 Versionshinweise
<a name="emr-5281-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.28.1. Änderungen beziehen sich auf Version 5.28.0.

Erste Version: 10. Januar 2020

**Änderungen, Verbesserungen und behobene Probleme**
+ Spark
  + Spark-Kompatibilitätsprobleme behoben.
+ CloudWatch Metriken
  + Fehler bei der Veröffentlichung von Amazon CloudWatch Metrics auf einem EMR-Cluster mit mehreren Primärknoten behoben.
+ Deaktivierte Protokollnachricht
  + Falsche Protokollnachricht „… verwendet die alte Version (<4.5.8) des Apache-HTTP-Clients“ deaktiviert.

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.28.1 Komponentenversionen
<a name="emr-5281-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.12.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.11.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.13.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.37.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.9.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.10 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.10 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.10 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.10 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.10 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.6-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.6-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.6-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.6-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.6-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.6-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.0-incubating | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.0-incubating | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.3- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.227 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.227 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.227 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.28.1 Konfigurationsklassifizierungen
<a name="emr-5281-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.28.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.28.0
<a name="emr-5280-release"></a>

## 5.28.0 Anwendungsversionen
<a name="emr-5280-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.659 | 1,11,615 | 1,11,615 | 1,11.595 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hudi | 0.5.0-incubating |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,3- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.224 | 0.224 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.28.0 Versionshinweise
<a name="emr-5280-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.28.0. Änderungen beziehen sich auf Version 5.27.0.

Erste Version: 12. November 2019

**Upgrades**
+ Upgrade von Flink auf Version 1.9.0
+ Upgrade von Hive auf Version 2.3.6
+ Auf Version 1.5.1 aktualisiert MXNet 
+ Upgrade von Phoenix auf Version 4.14.3
+ Upgrade von Presto auf Version 0.227
+ Upgrade von Zeppelin auf Version 0.8.2

**Neue Features**
+ [Apache Hudi](https://hudi.apache.org/) steht nun zur Installation unter Amazon EMR zur Verfügung, wenn Sie einen Cluster erstellen. Weitere Informationen finden Sie unter [Hudi](emr-hudi.md).
+ (25. November 2019) Sie können jetzt auf Wunsch mehrere Schritte gleichzeitig ausführen, um die Cluster-Nutzung zu verbessern und Kosten zu sparen. Außerdem können Sie sowohl anstehende als auch laufende Schritte stornieren. Weitere Informationen finden Sie unter [Arbeiten mit Schritten mithilfe der AWS CLI AND-Konsole](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-work-with-steps.html).
+ (3. Dezember 2019) Sie können jetzt EMR-Cluster erstellen und ausführen. AWS Outposts AWS Outposts ermöglicht native AWS Dienste, Infrastrukturen und Betriebsmodelle in lokalen Einrichtungen. In AWS Outposts Umgebungen können Sie dieselben AWS APIs Tools und dieselbe Infrastruktur verwenden wie in der AWS Cloud. Weitere Informationen finden Sie unter [EMR-Cluster auf AWS Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html).
+ (11. März 2020) Ab Amazon EMR Version 5.28.0 können Sie Amazon EMR-Cluster in einem Local Zones-Subnetz als logische Erweiterung einer AWS Region, die AWS Local Zones unterstützt, erstellen und ausführen. Eine lokale Zone ermöglicht es, Amazon EMR-Funktionen und eine Untergruppe von AWS Diensten, wie Rechen- und Speicherdienste, näher an den Benutzern zu platzieren, wodurch der Zugriff auf lokal ausgeführte Anwendungen mit sehr geringer Latenz ermöglicht wird. Eine Liste der verfügbaren Local Zones finden Sie unter [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Informationen zum Zugriff auf verfügbare AWS Local Zones finden Sie unter [Regionen, Availability Zones und Local Zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html).

  Local Zones unterstützen derzeit keine Amazon EMR Notebooks und unterstützen keine direkten Verbindungen zu Amazon EMR über die Schnittstelle VPC-Endpunkt (AWS PrivateLink).

**Änderungen, Verbesserungen und behobene Probleme**
+ Erweiterter Anwendungssupport für Cluster mit hoher Verfügbarkeit
  + Weitere Informationen finden Sie unter [Unterstützte Anwendungen in einem EMR-Cluster mit mehreren Primärknoten](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list) im *Verwaltungshandbuch für Amazon EMR*.
+ Spark
  + Leistungsoptimierungen
+ Hive
  + Leistungsoptimierungen
+ Presto
  + Leistungsoptimierungen

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.28.0 Komponentenversionen
<a name="emr-5280-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.12.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.11.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.13.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.37.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.9.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.10 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.10 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.10 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.10 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.10 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.6-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.6-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.6-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.6-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.6-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.6-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.0-incubating | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.0-incubating | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.3- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,3- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.227 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.227 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.227 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.28.0 Konfigurationsklassifizierungen
<a name="emr-5280-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.28.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.27.1
<a name="emr-5271-release"></a>

## 5.27.1 Anwendungsversionen
<a name="emr-5271-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.615 | 1,11,615 | 1,11.595 | 1,11.566 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.224 | 0.220 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.27.1 Versionshinweise
<a name="emr-5271-relnotes"></a>

Dies ist eine Patch-Version. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

Unterstützungsstatus des Instance Metadata Service (IMDS) V2: Die Komponenten Amazon EMR 5.23.1, 5.27.1 und 5.32 oder höher werden für alle IMDS-Aufrufe verwendet. IMDSv2 Für IMDS-Aufrufe in Ihrem Anwendungscode können Sie sowohl als auch verwenden oder das IMDS so konfigurieren, dass es IMDSv1 nur für IMDSv2 zusätzliche Sicherheit verwendet wird. IMDSv2 Bei anderen 5.x-EMR-Versionen IMDSv1 führt die Deaktivierung zu einem Cluster-Startfehler.

## 5.27.1 Komponentenversionen
<a name="emr-5271-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.12.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.11.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.13.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.36.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.8.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.10 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.10 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.10 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.10 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.10 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.5-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.5-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.5-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.5-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.5-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.5-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.4.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.2- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,2- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.224 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.224 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.27.1 Konfigurationsklassifizierungen
<a name="emr-5271-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.27.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.27.0
<a name="emr-5270-release"></a>

## 5.27.0 Anwendungsversionen
<a name="emr-5270-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.615 | 1,11.595 | 1,11.566 | 1,11.546 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,2- -1,4 HBase | 4,14,2- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.220 | 0.220 | 0.219 | 
| Spark | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 

## 5.27.0 Versionshinweise
<a name="emr-5270-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.27.0. Änderungen beziehen sich auf Version 5.26.0.

Erste Version: 23. September 2019

**Upgrades**
+ AWS SDK für Java 1,11.615
+ Flink 1.8.1
+ JupyterHub 1.0.0
+ Spark 2.4.4
+ Tensorflow 1,14.0
+ Konnektoren und Treiber:
  + DynamoDB Connector 4.12.0

**Neue Features**
+ (24. Oktober 2019) Die folgenden neuen Features in EMR Notebooks sind in allen Amazon-EMR-Versionen verfügbar.
  + Sie können Git-Repositorys mit Ihren EMR-Notebooks verknüpfen, um Ihre Notebooks in einer versionskontrollierten Umgebung zu speichern. Sie können Code mit Kollegen teilen und vorhandene Jupyter Notebooks über Remote-Git-Repositorys wiederverwenden. Weitere Informationen finden Sie unter [Verknüpfen von Git-basierten Repositorys mit Amazon EMR Notebooks](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-git-repo.html) im *Verwaltungshandbuch für Amazon EMR*.
  + Das [Hilfsprogramm nbdime](https://github.com/jupyter/nbdime) ist jetzt in EMR Notebooks verfügbar, um das Vergleichen und Zusammenführen von Notebooks zu vereinfachen.
  + EMR-Notebooks werden jetzt unterstützt JupyterLab. JupyterLab ist eine webbasierte interaktive Entwicklungsumgebung, die vollständig mit Jupyter-Notebooks kompatibel ist. Sie können jetzt wählen, ob Sie Ihr Notizbuch entweder im JupyterLab Jupyter-Notebook-Editor öffnen möchten.
+ (30. Oktober 2019) Mit Amazon-EMR-Version 5.25.0 können Sie über die Seite **Zusammenfassung** des Clusters oder die Registerkarte **Anwendungsverlauf** in der Konsole eine Verbindung zu persistenten Spark History Servern herstellen. Anstatt einen Web-Proxy über eine SSH-Verbindung einzurichten, können Sie schnell auf die Benutzeroberfläche des Spark-History-Servers zugreifen, um Anwendungsmetriken einzusehen und auf relevante Protokolldateien für aktive und beendete Cluster zuzugreifen. Weitere Informationen finden Sie unter [Off-Cluster-Zugriff auf persistente Anwendungsbenutzeroberflächen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html) im *Verwaltungshandbuch für Amazon EMR*.

**Änderungen, Verbesserungen und behobene Probleme**
+ Amazon-EMR-Cluster mit mehreren Primärknoten
  + Sie können Flink auf einem Amazon-EMR-Cluster mit mehreren Primärknoten installieren und ausführen. Weitere Informationen finden Sie unter [Unterstützte Anwendungen und Features.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html)
  + Sie können die transparente HDFS-Verschlüsselung auf einem Amazon-EMR-Cluster mit mehreren Primärknoten konfigurieren. Weitere Informationen finden Sie unter [Transparente HDFS-Verschlüsselung auf EMR-Clustern mit mehreren Primärknoten](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-encryption-tdehdfs.html#emr-hadoop-kms-multi-master).
  + Sie können jetzt die Konfiguration von Anwendungen ändern, die auf einem Amazon-EMR-Cluster mit mehreren Primärknoten ausgeführt werden. Weitere Informationen finden Sie unter [Angeben einer Konfiguration für eine Instance-Gruppe in einem aktiven Cluster](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).
+ Amazon-EMR-DynamoDB-Konnektor
  + Amazon-EMR-DynamoDB-Konnektor unterstützt jetzt die folgenden DynamoDB-Datentypen: boolean, list, map, item, null. Weitere Informationen finden Sie unter [Eine Hive-Tabelle zur Ausführung von Hive-Befehlen einrichten](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/EMR_Interactive_Hive.html).

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.27.0 Komponentenversionen
<a name="emr-5270-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.12.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.11.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.13.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.36.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.8.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.10 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.10 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.10 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.10 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.10 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.5-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.5-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.5-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.5-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.5-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.5-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.4.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.2- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,2- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.224 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.224 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.27.0 Konfigurationsklassifizierungen
<a name="emr-5270-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.27.0 Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.26.0
<a name="emr-5260-release"></a>

## 5.26.0 Anwendungsversionen
<a name="emr-5260-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.595 | 1,11.566 | 1,11.546 | 1,11.546 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,2- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.220 | 0.219 | 0.219 | 
| Spark | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 

## 5.26.0 Versionshinweise
<a name="emr-5260-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.26.0. Änderungen beziehen sich auf Version 5.25.0.

Erste Version: 8. August 2019

Letzte Aktualisierung: 19. August 2019

**Upgrades**
+ AWS SDK für Java 1,11.595
+ HBase 1.4,10
+ Phoenix 4.14.2
+ Konnektoren und Treiber:
  + DynamoDB Connector 4.11.0
  + MariaDB Connector 2.4.2
  + Amazon-Redshift-JDBC-Treiber 1.2.32.1056

**Neue Features**
+ (Beta) Mit Amazon EMR 5.26.0 können Sie einen Cluster starten, der in Lake Formation integriert ist. Diese Integration bietet einen detaillierten Zugriff auf Spaltenebene auf Datenbanken und Tabellen im Glue-Datenkatalog. AWS Es ermöglicht Lake Formation über ein Unternehmens-Identitätssystem eine verbundene einmalige Anmeldung bei EMR Notebooks oder Apache Zeppelin. Weitere Informationen finden Sie unter [Integration von Amazon EMR mit AWS Lake Formation (Beta)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html).
+ (19. August 2019) Amazon EMR Block Public Access ist jetzt in allen Amazon-EMR-Versionen verfügbar, die Sicherheitsgruppen unterstützen. Den öffentlichen Zugriff blockieren ist eine kontoweite Einstellung, die für jede Region gilt. AWS Den öffentlichen Zugriff blockieren verhindert, dass ein Cluster gestartet wird, wenn eine dem Cluster zugeordnete Sicherheitsgruppe über eine Regel verfügt, die eingehenden Datenverkehr von IPv4 0.0.0.0/0 oder IPv6 : :/0 (öffentlicher Zugriff) auf einem Port zulässt, sofern kein Port als Ausnahme angegeben ist. Port 22 ist standardmäßig eine Ausnahme. Weitere Informationen finden Sie unter [Verwenden von Amazon EMR Block Public Access](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-block-public-access.html) im *Verwaltungshandbuch für Amazon EMR*.

**Änderungen, Verbesserungen und behobene Probleme**
+ EMR Notebooks
  + Mit EMR 5.26.0 und höher unterstützt EMR Notebooks zusätzlich zu den Standard-Python-Bibliotheken auch Python-Bibliotheken für Notebooks. Sie können Bibliotheken für Notebooks vom Notebook-Editor aus installieren, ohne einen Cluster neu erstellen oder ein Notebook erneut an einen Cluster anhängen zu müssen. Notebook-bezogene Bibliotheken werden in einer virtuellen Python-Umgebung erstellt und gelten daher nur für die aktuelle Notebook-Sitzung. Auf diese Weise können Sie Abhängigkeiten zwischen Notebooks isolieren. Weitere Informationen finden Sie unter [Verwenden von Notebook Scoped Libraries](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-custom-libraries-limitations.html) im *Verwaltungshandbuch für Amazon EMR*.
+ EMRFS
  + Sie können eine ETag Bestätigungsfunktion (Beta) aktivieren, indem Sie auf einstellen. `fs.s3.consistent.metadata.etag.verification.enabled` `true` Mit dieser Funktion verwendet EMRFS Amazon S3, ETags um zu überprüfen, ob es sich bei den gelesenen Objekten um die neueste verfügbare Version handelt. Diese Funktion ist hilfreich für read-after-update Anwendungsfälle, in denen Dateien auf Amazon S3 überschrieben werden, während derselbe Name beibehalten wird. Diese ETag Überprüfungsfunktion funktioniert derzeit nicht mit S3 Select. Weitere Informationen finden Sie unter [Konfigurieren der konsistenten Ansicht](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emrfs-configure-consistent-view.html).
+ Spark
  + Die folgenden Optimierungen sind jetzt standardmäßig aktiviert: dynamisches Bereinigen von Partitionen, DISTINCT vor INTERSECT, Verbesserungen bei der Inferenz von SQL-Planstatistiken für JOIN, gefolgt von DISTINCT-Abfragen, Reduzierung skalarer Unterabfragen, optimierte Join-Neuordnung und Bloom-Filter-Join. Weitere Informationen finden Sie unter [Optimieren der Spark-Leistung](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html).
  + Die Codegenerierung für die gesamte Phase für Sort Merge Join wurde verbessert.
  + Die Wiederverwendung von Abfragefragmenten und Unterabfragen wurde verbessert.
  + Verbesserungen bei der Vorabzuweisung von Executoren beim Start von Spark.
  + Bloom-Filter-Joins werden nicht mehr angewendet, wenn die kleinere Seite der Verknüpfung einen Broadcast-Hinweis enthält.
+ Tez
  + Ein Problem mit Tez wurde behoben. Die Tez-Benutzeroberfläche funktioniert jetzt auf einem Amazon-EMR-Cluster mit mehreren Primärknoten.

**Bekannte Probleme**
+ Die verbesserten Funktionen zur Codegenerierung in der gesamten Phase für Sort Merge Join können den Speicherdruck erhöhen, wenn sie aktiviert sind. Diese Optimierung verbessert die Leistung, kann jedoch zu Wiederholungsversuchen oder Fehlschlägen führen, wenn der nicht so eingestellt `spark.yarn.executor.memoryOverheadFactor` ist, dass er genügend Speicher zur Verfügung stellt. Um dieses Feature zu deaktivieren, setzen Sie `spark.sql.sortMergeJoinExec.extendedCodegen.enabled` auf „false“.
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.26.0 Komponentenversionen
<a name="emr-5260-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.11.0 | Amazon DynamoDB-Konnektor für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.10.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.12.0 | Für Amazon S3 optimierte verteilte Kopieranwendung. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.35.0 | Amazon S3-Konnektor für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.8.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.10 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.10 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.10 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.10 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.10 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.5-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.5-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.5-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.5-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.5-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.6 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.4.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.2- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,2- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.220 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.220 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.3 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.3 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.3 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.3 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.13.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.26.0 Konfigurationsklassifizierungen
<a name="emr-5260-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.26.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.25.0
<a name="emr-5250-release"></a>

## 5.25.0 Anwendungsversionen
<a name="emr-5250-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.566 | 1,11.546 | 1,11.546 | 1,11.519 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 
| Hive | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.219 | 0.219 | 0.215 | 
| Spark | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.25.0 Versionshinweise
<a name="emr-5250-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.25.0. Änderungen beziehen sich auf Version 5.24.1.

Erste Version: 17. Juli 2019

Letzte Aktualisierung: 30. Oktober 2019

**Amazon EMR 5.25.0**

**Upgrades**
+ AWS SDK für Java 1,11.566
+ Hive 2.3.5
+ Presto 0.220
+ Spark 2.4.3
+ TensorFlow 1.13,1
+ Tez 0.9.2
+ Zookeeper 3.4.14

**Neue Features**
+ (30. Oktober 2019) Beginnend mit der Amazon-EMR-Version 5.25.0 können Sie über die Seite**Zusammenfassung** des Clusters oder die Registerkarte **Anwendungsverlauf** in der Konsole eine Verbindung zu persistenten Spark-History-Servern herstellen. Anstatt einen Web-Proxy über eine SSH-Verbindung einzurichten, können Sie schnell auf die Benutzeroberfläche des Spark-History-Servers zugreifen, um Anwendungsmetriken einzusehen und auf relevante Protokolldateien für aktive und beendete Cluster zuzugreifen. Weitere Informationen finden Sie unter [Off-Cluster-Zugriff auf persistente Anwendungsbenutzeroberflächen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html) im *Verwaltungshandbuch für Amazon EMR*.

**Änderungen, Verbesserungen und behobene Probleme**
+ Spark
  + Die Leistung einiger Verknüpfungen wurde verbessert, indem Bloom-Filter zum Vorfiltern von Eingaben verwendet wurden. Die Optimierung ist standardmäßig deaktiviert und kann aktiviert werden, indem der Spark-Konfigurationsparameter `spark.sql.bloomFilterJoin.enabled` auf `true` gesetzt wird.
  + Die Leistung bei der Gruppierung nach Spalten vom Typ Zeichenfolge wurde verbessert.
  + Die standardmäßige Spark-Executor-Speicher- und Core-Konfiguration von R4-Instanztypen für Cluster ohne Installation wurde verbessert. HBase 
  + Es wurde ein früheres Problem mit dem Feature zum dynamischen Bereinigen von Partitionen behoben, bei dem sich die bereinigte Tabelle auf der linken Seite des Joins befinden musste.
  + Die Optimierung von DISTINCT vor INTERSECT wurde verbessert und gilt nun auch für weitere Fälle, in denen Aliase involviert sind.
  + Die Inferenz der SQL-Planstatistiken für JOIN, gefolgt von DISTINCT-Abfragen, wurde verbessert. Diese Verbesserung ist standardmäßig deaktiviert und kann aktiviert werden, indem der Spark-Konfigurationsparameter `spark.sql.statsImprovements.enabled` auf `true` gesetzt wird. Diese Optimierung ist für das Feature „Unterscheiden vor Überschneiden“ erforderlich und wird automatisch aktiviert, wenn `spark.sql.optimizer.distinctBeforeIntersect.enabled` auf `true` gesetzt ist.
  + Optimierte Verbindungsreihenfolge basierend auf Tabellengröße und Filtern. Diese Optimierung ist standardmäßig deaktiviert und kann aktiviert werden, indem der Spark-Konfigurationsparameter `spark.sql.optimizer.sizeBasedJoinReorder.enabled` auf `true` gesetzt wird.

  Weitere Informationen finden Sie unter [Optimieren der Spark-Leistung](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html).
+ EMRFS
  + Die EMRFS-Einstellung `fs.s3.buckets.create.enabled` ist jetzt standardmäßig deaktiviert. Bei Tests haben wir festgestellt, dass die Deaktivierung dieser Einstellung die Leistung verbessert und die unbeabsichtigte Erstellung von S3-Buckets verhindert. Wenn Ihre Anwendung auf dieser Funktionalität basiert, können Sie sie aktivieren, indem Sie die Eigenschaft `true` in der Konfigurationsklassifizierung von `fs.s3.buckets.create.enabled` auf `emrfs-site` setzen. Weitere Informationen finden Sie unter [Angeben einer Konfiguration beim Erstellen eines Clusters](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html).
+ Verbesserungen der lokalen Festplattenverschlüsselung und der S3-Verschlüsselung in Sicherheitskonfigurationen (5. August 2019)
  + Die Amazon-S3-Verschlüsselungseinstellungen wurden im Sicherheitskonfigurations-Setup von den Einstellungen für die lokale Festplattenverschlüsselung getrennt.
  + Es wurde eine Option hinzugefügt, um die EBS-Verschlüsselung mit Version 5.24.0 und höher zu aktivieren. Bei Auswahl dieser Option wird zusätzlich zu den Speichervolumes auch das Root-Geräte-Volume verschlüsselt. Frühere Versionen erforderten die Verwendung eines benutzerdefinierten AMI, um das Root-Geräte-Volume zu verschlüsseln.
  + Weitere Information erhalten Sie unter [Verschlüsselungsoptionen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html) im *Verwaltungshandbuch für Amazon EMR*.

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.25.0 Komponentenversionen
<a name="emr-5250-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.10.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.9.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.34.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.8.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.9 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.9 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.9 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.9 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.9 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.5-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.5-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.5-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.5-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.5-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.6 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.4.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.1- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,1- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.220 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.220 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.3 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.3 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.3 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.3 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.13.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 5.25.0 Konfigurationsklassifizierungen
<a name="emr-5250-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.25.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml von Sqoop OraOop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.24.1
<a name="emr-5241-release"></a>

## 5.24.1 Anwendungsversionen
<a name="emr-5241-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/),, [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.546 | 1,11.546 | 1,11.519 | 1,11.519 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.219 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.24.1 Versionshinweise
<a name="emr-5241-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.24.1. Änderungen beziehen sich auf Version 5.24.0.

Erste Version: 26. Juni 2019

**Änderungen, Verbesserungen und behobene Probleme**
+ Das standardmäßige Amazon Linux AMI für Amazon EMR wurde aktualisiert, sodass es wichtige Sicherheitsupdates für den Linux-Kernel enthält, darunter das „TCP SACK Denial of Service Issue“ ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.24.1 Komponentenversionen
<a name="emr-5241-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.9.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.8.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.33.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.8.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.9 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.9 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.9 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.9 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.9 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.6 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.4.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.1- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,1- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.219 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.219 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.24.1 Konfigurationsklassifizierungen
<a name="emr-5241-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.24.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.24.0
<a name="emr-5240-release"></a>

## 5.24.0 Anwendungsversionen
<a name="emr-5240-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.546 | 1,11.519 | 1,11.519 | 1,11.510 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.24.0 Versionshinweise
<a name="emr-5240-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.24.0. Änderungen beziehen sich auf Version 5.23.0.

Erste Version: 11. Juni 2019

Letzte Aktualisierung: 5. August 2019

**Upgrades**
+ Flink 1.8.0
+ Hue 4.4.0
+ JupyterHub 0.9.6
+ Livy 0.6.0
+ MxNet 1.4.0
+ Presto 0.219
+ Spark 2.4.2
+ AWS SDK für Java 1,11.546
+ Konnektoren und Treiber:
  + DynamoDB Connector 4.9.0
  + MariaDB Connector 2.4.1
  + Amazon-Redshift-JDBC-Treiber, Version 1.2.27.1051

**Änderungen, Verbesserungen und behobene Probleme**
+ Spark
  + Es wurde eine Optimierung für das dynamische Bereinigen von Partitionen hinzugefügt. Die Optimierung ist standardmäßig deaktiviert. Um es zu aktivieren, setzen Sie den Spark-Konfigurationsparameter `spark.sql.dynamicPartitionPruning.enabled` auf `true`.
  + Die Leistung von `INTERSECT`-Anfragen wurde verbessert. Diese Optimierung ist standardmäßig deaktiviert. Um es zu aktivieren, setzen Sie den Spark-Konfigurationsparameter `spark.sql.optimizer.distinctBeforeIntersect.enabled` auf `true`.
  + Es wurde eine Optimierung hinzugefügt, um skalare Unterabfragen mit Aggregaten, die dieselbe Beziehung verwenden, zu vereinfachen. Die Optimierung ist standardmäßig deaktiviert. Um es zu aktivieren, setzen Sie den Spark-Konfigurationsparameter `spark.sql.optimizer.flattenScalarSubqueriesWithAggregates.enabled` auf `true`.
  + Die Codegenerierung für die gesamte Phase wurde verbessert.

  Weitere Informationen finden Sie unter [Optimieren der Spark-Leistung](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html).
+ Verbesserungen der lokalen Festplattenverschlüsselung und der S3-Verschlüsselung in Sicherheitskonfigurationen (5. August 2019)
  + Die Amazon-S3-Verschlüsselungseinstellungen wurden im Sicherheitskonfigurations-Setup von den Einstellungen für die lokale Festplattenverschlüsselung getrennt.
  + Es wurde eine Option hinzugefügt, um die EBS-Verschlüsselung zu aktivieren. Bei Auswahl dieser Option wird zusätzlich zu den Speichervolumes auch das Root-Geräte-Volume verschlüsselt. Frühere Versionen erforderten die Verwendung eines benutzerdefinierten AMI, um das Root-Geräte-Volume zu verschlüsseln.
  + Weitere Information erhalten Sie unter [Verschlüsselungsoptionen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html) im *Verwaltungshandbuch für Amazon EMR*.

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.24.0 Komponentenversionen
<a name="emr-5240-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.9.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.8.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.3.0 | EMR S3Select-Konnektor | 
| emrfs | 2.33.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.8.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.9 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.9 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.9 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.9 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.9 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.6 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.4.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.1- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,1- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.219 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.219 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.24.0 Konfigurationsklassifizierungen
<a name="emr-5240-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.24.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.23.1
<a name="emr-5231-release"></a>

## 5.23.1 Anwendungsversionen
<a name="emr-5231-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.519 | 1,11.519 | 1,11.510 | 1.11.479 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 
| Phoenix | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.23.1 Versionshinweise
<a name="emr-5231-relnotes"></a>

Dies ist eine Patch-Version. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

Unterstützungsstatus des Instance Metadata Service (IMDS) V2: Die Komponenten Amazon EMR 5.23.1, 5.27.1 und 5.32 oder höher werden für alle IMDS-Aufrufe verwendet. IMDSv2 Für IMDS-Aufrufe in Ihrem Anwendungscode können Sie sowohl als auch verwenden oder das IMDS so konfigurieren, dass es IMDSv1 nur für IMDSv2 zusätzliche Sicherheit verwendet wird. IMDSv2 Bei anderen 5.x-EMR-Versionen IMDSv1 führt die Deaktivierung zu einem Cluster-Startfehler.

## 5.23.1 Komponentenversionen
<a name="emr-5231-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.8.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.7.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.32.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.7.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.9 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.9 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.9 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.9 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.9 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.1- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,1- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.215 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.215 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.23.1 Konfigurationsklassifizierungen
<a name="emr-5231-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.23.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.23.0
<a name="emr-5230-release"></a>

## 5.23.0 Anwendungsversionen
<a name="emr-5230-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.519 | 1,11.510 | 1.11.479 | 1.11.479 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,1- -1,4 HBase | 4,14,1- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.23.0 Versionshinweise
<a name="emr-5230-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.23.0. Änderungen beziehen sich auf Version 5.22.0.

Erste Version: 01. April 2019

Letzte Aktualisierung: 30. April 2019

**Upgrades**
+ AWS SDK für Java 1,11.519

**Neue Features**
+ (30. April 2019) Mit Amazon EMR 5.23.0 und höher können Sie einen Cluster mit drei primären Knoten starten, um die Hochverfügbarkeit von Anwendungen wie YARN Resource Manager, HDFS, Spark NameNode, Hive und Ganglia zu unterstützen. Der Primärknoten ist mit diesem Feature keine potenzielle einzelne Fehlerquelle mehr. Wenn ein Primärknoten ausfällt, führt Amazon EMR automatisch einen Failover zu einem Standby-Primärknoten aus und ersetzt den ausgefallenen Primärknoten durch einen neuen Primärknoten mit der gleichen Konfiguration und den gleichen Bootstrap-Aktionen. Weitere Informationen finden Sie unter [Primärknoten planen und konfigurieren](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha.html).

**Bekannte Probleme**
+ Tez UI (In Amazon-EMR-Version 5.26.0 behoben)

  Die Tez-Benutzeroberfläche funktioniert nicht auf einem EMR-Cluster mit mehreren Primärknoten. 
+ Hue (in Amazon-EMR-Version 5.24.0 behoben)
  + Hue, das auf Amazon EMR läuft, unterstützt Solr nicht. Ab Amazon-EMR-Version 5.20.0 führt ein Problem mit der Fehlkonfiguration dazu, dass Solr aktiviert wird und eine harmlose Fehlermeldung ähnlich der folgenden angezeigt wird:

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **So wird verhindert, dass die Solr-Fehlermeldung angezeigt wird:**

    1. Stellen Sie über SSH eine Verbindung zur Befehlszeile des Primärknotens her.

    1. Verwenden Sie einen Texteditor zum Öffnen der `hue.ini`-Datei. Beispiel:

       `sudo vim /etc/hue/conf/hue.ini`

    1. Suchen Sie nach dem Begriff `appblacklist` und ändern Sie die Zeile wie folgt:

       ```
       appblacklist = search
       ```

    1. Speichern Sie Ihre Änderungen und starten Sie Hue wie im folgenden Beispiel gezeigt:

       ```
       sudo stop hue; sudo start hue
       ```
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.23.0 Komponentenversionen
<a name="emr-5230-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.8.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.7.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.32.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.7.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.9 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.9 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.9 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.9 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.9 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.1- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,1- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.215 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.215 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.23.0 Konfigurationsklassifizierungen
<a name="emr-5230-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.23.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.22.0
<a name="emr-5220-release"></a>

## 5.22.0 Anwendungsversionen
<a name="emr-5220-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.510 | 1.11.479 | 1.11.479 | 1.11.479 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,1- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.22.0 Versionshinweise
<a name="emr-5220-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.22.0. Änderungen beziehen sich auf Version 5.21.0.

**Wichtig**  
Ab Amazon EMR Version 5.22.0 verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Frühere Amazon EMR-Versionen verwenden in einigen Fällen AWS Signature Version 2, sofern in den Versionshinweisen nicht angegeben ist, dass ausschließlich Signature Version 4 verwendet wird. Weitere Informationen finden Sie unter [Authentifizieren von Anfragen (AWS Signature Version 4)](https://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html) und [Authentifizieren von Anfragen (AWS Signature Version 2)](https://docs.aws.amazon.com/AmazonS3/latest/API/auth-request-sig-v2.html) im *Amazon Simple Storage Service Developer Guide*.

Erste Version: 20. März 2019

**Upgrades**
+ Flink 1.7.1
+ HBase 1.4.9
+ Oozie 5.1.0
+ Phoenix 4.14.1
+ Zeppelin 0.8.1
+ Konnektoren und Treiber:
  + DynamoDB Connector 4.8.0
  + MariaDB Connector 2.2.6
  + Amazon-Redshift-JDBC-Treiber, Version 1.2.20.1043

**Neue Features**
+ Die EBS-Standardkonfiguration für EC2-Instance-Typen mit reinem EBS-Speicher wurde geändert. Beim Erstellen eines Clusters mit Amazon-EMR-Version ab 5.22.0 steigt die Größe des standardmäßig zugewiesenen EBS-Speichers basierend auf der Größe der Instance. Darüber hinaus haben wir den erhöhten Speicher auf mehrere Volumes aufgeteilt, was zu einer höheren IOPS-Leistung führt. Wenn Sie eine andere EBS-Instance-Speicherkonfiguration verwenden möchten, können Sie diese beim Erstellen eines EMR-Clusters bzw. beim Hinzufügen von Knoten zu einem Cluster angeben. Weitere Informationen zur Speichermenge und Anzahl der standardmäßig zugewiesenen Volumes für jeden Instance-Typ finden Sie unter [Standard-EBS-Speicher für Instances](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-storage.html#emr-plan-storage-ebs-storage-default) im *Verwaltungshandbuch für Amazon EMR*.

**Änderungen, Verbesserungen und behobene Probleme**
+ Spark
  + Es wurde eine neue Konfigurationseigenschaft für Spark auf YARN `spark.yarn.executor.memoryOverheadFactor` eingeführt. Der Wert dieser Eigenschaft ist ein Skalierungsfaktor, der den Wert des Speicher-Overheads auf einen Prozentsatz des Executor-Speichers festlegt, mit einem Minimum von 384 MB. Wenn der Speicher-Overhead explizit mit `spark.yarn.executor.memoryOverhead` festgelegt wird, hat diese Eigenschaft keine Auswirkung. Der Standardwert ist `0.1875`, was 18.75 % entspricht. Dieser Standard für Amazon EMR lässt mehr Platz in YARN-Containern für den Executor-Speicheraufwand übrig als der intern von Spark festgelegte Standard von 10 %. Der Amazon-EMR-Standard von 18,75 % ergab empirisch weniger speicherbedingte Ausfälle in TPC-DS-Benchmarks.
  + [SPARK-26316](https://issues.apache.org/jira/browse/SPARK-26316) wurde zurückportiert, um die Leistung zu verbessern.
+ In den Amazon-EMR-Versionen 5.19.0, 5.20.0 und 5.21.0 werden YARN-Knotenbezeichnungen in einem HDFS-Verzeichnis gespeichert. In einigen Situationen führt dies zu Verzögerungen beim Startup des Core-Knotens und dann zu einem Cluster-Timeout und einem Startfehler. Ab Amazon EMR 5.22.0 ist dieses Problem behoben. YARN-Knotenbezeichnungen werden auf der lokalen Festplatte jedes Clusterknotens gespeichert, wodurch Abhängigkeiten von HDFS vermieden werden. 

**Bekannte Probleme**
+ Hue (in Amazon-EMR-Version 5.24.0 behoben)
  + Hue, das auf Amazon EMR läuft, unterstützt Solr nicht. Ab Amazon-EMR-Version 5.20.0 führt ein Problem mit der Fehlkonfiguration dazu, dass Solr aktiviert wird und eine harmlose Fehlermeldung ähnlich der folgenden angezeigt wird:

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **So wird verhindert, dass die Solr-Fehlermeldung angezeigt wird:**

    1. Stellen Sie über SSH eine Verbindung zur Befehlszeile des Primärknotens her.

    1. Verwenden Sie einen Texteditor zum Öffnen der `hue.ini`-Datei. Beispiel:

       `sudo vim /etc/hue/conf/hue.ini`

    1. Suchen Sie nach dem Begriff `appblacklist` und ändern Sie die Zeile wie folgt:

       ```
       appblacklist = search
       ```

    1. Speichern Sie Ihre Änderungen und starten Sie Hue wie im folgenden Beispiel gezeigt:

       ```
       sudo stop hue; sudo start hue
       ```
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.22.0 Komponentenversionen
<a name="emr-5220-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.8.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.6.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.31.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.7.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.9 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.9 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.9 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.9 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.9 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.1- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,14,1- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.215 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.215 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.22.0 Konfigurationsklassifizierungen
<a name="emr-5220-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.22.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.21.2
<a name="emr-5212-release"></a>

## 5.21.2 Anwendungsversionen
<a name="emr-5212-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.479 | 1.11.479 | 1.11.479 | 1.11.461 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.2 Versionshinweise
<a name="emr-5212-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.21.2 Komponentenversionen
<a name="emr-5212-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.30.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.7.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.8 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.8 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.8 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.8 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.8 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.215 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.215 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.21.2 Konfigurationsklassifizierungen
<a name="emr-5212-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.21.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.21.1
<a name="emr-5211-release"></a>

## 5.21.1 Anwendungsversionen
<a name="emr-5211-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.479 | 1.11.479 | 1.11.461 | 1.11.461 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.214 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.1 Versionshinweise
<a name="emr-5211-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.21.1. Änderungen beziehen sich auf Version 5.21.0.

Erste Version: 18. Juli 2019

**Änderungen, Verbesserungen und behobene Probleme**
+ Das standardmäßige Amazon Linux AMI für Amazon EMR wurde aktualisiert, sodass es wichtige Sicherheitsupdates für den Linux-Kernel enthält, darunter das „TCP SACK Denial of Service Issue“ ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

**Bekannte Probleme**
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.21.1 Komponentenversionen
<a name="emr-5211-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.30.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.7.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.8 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.8 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.8 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.8 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.8 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.215 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.215 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.21.1 Konfigurationsklassifizierungen
<a name="emr-5211-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.21.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.21.0
<a name="emr-5210-release"></a>

## 5.21.0 Anwendungsversionen
<a name="emr-5210-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.479 | 1.11.461 | 1.11.461 | 1,11.433 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,4 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.214 | 0.214 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.0 Versionshinweise
<a name="emr-5210-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.21.0. Änderungen beziehen sich auf Version 5.20.0.

Veröffentlichungsdatum: 18. Februar 2019

Letzte Aktualisierung: 3. April 2019

**Upgrades**
+ Flink 1.7.0
+ Presto 0.215
+ AWS SDK für Java 1,11.479

**Neue Features**
+ (3. April 2019) Ab Amazon-EMR-Version 5.21.0 können Sie Cluster-Konfigurationen überschreiben und zusätzliche Konfigurationsklassifikationen für jede Instance-Gruppe in einem ausgeführten Cluster angeben. Dazu verwenden Sie die Amazon EMR-Konsole, das AWS Command Line Interface (AWS CLI) oder das AWS SDK. Weitere Informationen finden Sie unter [Angeben einer Konfiguration für eine Instance-Gruppe in einem aktiven Cluster](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

**Änderungen, Verbesserungen und behobene Probleme**
+ Zeppelin
  + [ZEPPELIN-3878](https://issues.apache.org/jira/browse/ZEPPELIN-3878) rückportiert.

**Bekannte Probleme**
+ Hue (in Amazon-EMR-Version 5.24.0 behoben)
  + Hue, das auf Amazon EMR läuft, unterstützt Solr nicht. Ab Amazon-EMR-Version 5.20.0 führt ein Problem mit der Fehlkonfiguration dazu, dass Solr aktiviert wird und eine harmlose Fehlermeldung ähnlich der folgenden angezeigt wird:

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **So wird verhindert, dass die Solr-Fehlermeldung angezeigt wird:**

    1. Stellen Sie über SSH eine Verbindung zur Befehlszeile des Primärknotens her.

    1. Verwenden Sie einen Texteditor zum Öffnen der `hue.ini`-Datei. Beispiel:

       `sudo vim /etc/hue/conf/hue.ini`

    1. Suchen Sie nach dem Begriff `appblacklist` und ändern Sie die Zeile wie folgt:

       ```
       appblacklist = search
       ```

    1. Speichern Sie Ihre Änderungen und starten Sie Hue wie im folgenden Beispiel gezeigt:

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez
  + Dieses Problem wurde in Amazon EMR 5.22.0 behoben.

    Wenn Sie *MasterDNS* über eine SSH-Verbindung zum Primärknoten des Clusters eine Verbindung zur Tez-Benutzeroberfläche unter http: //:8080/tez-ui herstellen, wird der Fehler „Adapter operation failed — Timeline server (ATS) is out of reach“ angezeigt. Entweder ist er ausgefallen oder CORS ist nicht aktiviert“ wird angezeigt, oder Aufgaben zeigen unerwartet „N/A“ an.

    Dies wird dadurch verursacht, dass die Tez-Benutzeroberfläche Anfragen an den YARN Timeline Server stellt und `localhost` nicht den Hostnamen des Primärknotens verwendet. Um dieses Problem zu umgehen, steht ein Skript zur Verfügung, das als Bootstrap-Aktion oder als Bootstrap-Schritt ausgeführt werden kann. Das Skript aktualisiert den Hostnamen in der `configs.env` Tez-Datei. Weitere Informationen und den Speicherort des Skripts finden Sie in den [Bootstrap-Anweisungen](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/).
+ In den Amazon-EMR-Versionen 5.19.0, 5.20.0 und 5.21.0 werden YARN-Knotenbezeichnungen in einem HDFS-Verzeichnis gespeichert. In einigen Situationen führt dies zu Verzögerungen beim Startup des Core-Knotens und dann zu einem Cluster-Timeout und einem Startfehler. Ab Amazon EMR 5.22.0 ist dieses Problem behoben. YARN-Knotenbezeichnungen werden auf der lokalen Festplatte jedes Clusterknotens gespeichert, wodurch Abhängigkeiten von HDFS vermieden werden. 
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.21.0 Komponentenversionen
<a name="emr-5210-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.11.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.30.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.7.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.8 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.8 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.8 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.8 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.8 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.215 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.215 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.21.0 Konfigurationsklassifizierungen
<a name="emr-5210-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.21.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.20.1
<a name="emr-5201-release"></a>

## 5.20.1 Anwendungsversionen
<a name="emr-5201-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.461 | 1.11.461 | 1,11.433 | 1,11.433 | 
| Python | 2,7, 3,6 | 2,7, 3,6 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.214 | 0.212 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.20.1 Versionshinweise
<a name="emr-5201-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.20.1 Komponentenversionen
<a name="emr-5201-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.29.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.6.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.8 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.8 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.8 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.8 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.8 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.214 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.214 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.20.1 Konfigurationsklassifizierungen
<a name="emr-5201-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.20.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.20.0
<a name="emr-5200-release"></a>

## 5.20.0 Anwendungsversionen
<a name="emr-5200-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.461 | 1,11.433 | 1,11.433 | 1,11.393 | 
| Python | 2,7, 3,6 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.12 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.212 | 0.212 | 0.210 | 
| Spark | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 
| Tez | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 

## 5.20.0 Versionshinweise
<a name="emr-5200-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.20.0. Änderungen beziehen sich auf Version 5.19.0.

Veröffentlichungsdatum: 18. Dezember 2018

Letzte Aktualisierung: 22. Januar 2019

**Upgrades**
+ Flink 1.6.2
+ HBase 1.4.8
+ Hive 2.3.4
+ Hue 4.3.0
+ MXNet 1.3.1
+ Presto 0.214
+ Spark 2.4.0
+ TensorFlow 1.12.0
+ Tez 0.9.1
+ AWS SDK für Java 1.11.461

**Neue Features**
+ (22. Januar 2019) Kerberos in Amazon EMR wurde verbessert und unterstützt nun die Authentifizierung von Prinzipalen von einem externen KDC. Dadurch wird die Prinzipalverwaltung zentralisiert, da mehrere Cluster einen einzelnen externen KDC gemeinsam nutzen können. Darüber hinaus kann der externe KDC eine bereichsübergreifende Vertrauensstellung mit einer Active-Directory-Domain haben. Auf diese Weise können alle Cluster Prinzipale von Active Directory authentifizieren. Weitere Informationen finden Sie unter [Verwendung der Kerberos-Authentifizierung](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html) im *Verwaltungshandbuch für Amazon EMR*.

**Änderungen, Verbesserungen und behobene Probleme**
+ Standard-Amazon-Linux-AMI für Amazon EMR
  + Das Python3-Paket wurde von Python 3.4 auf 3.6 aktualisiert.
+ Der EMRFS-S3-optimierte Committer 
  + Der für EMRFS S3 optimierte Committer ist jetzt standardmäßig aktiviert, was die Schreibleistung verbessert. Weitere Informationen finden Sie unter [EMRFS-S3-optimierte Committer verwenden](emr-spark-s3-optimized-committer.md).
+ Hive
  + [HIVE-16686](https://issues.apache.org/jira/browse/HIVE-16686) wurde rückportiert.
+ Mit Spark und Hive Glue
  + In EMR 5.20.0 oder höher wird das parallel Partitionsbereinigen automatisch für Spark und Hive aktiviert, wenn AWS Glue Data Catalog als Metastore verwendet wird. Diese Änderung reduziert die Zeit für die Abfrageplanung erheblich, da mehrere Anfragen parallel ausgeführt werden, um Partitionen abzurufen. Die Gesamtzahl der Segmente, die gleichzeitig ausgeführt werden können, liegt zwischen 1 und 10. Der Standardwert ist 5, was eine empfohlene Einstellung ist. Sie können dies ändern, indem Sie die Eigenschaft `aws.glue.partition.num.segments` in der `hive-site`-Konfigurationsklassifizierung angeben. Wenn eine Drosselung auftritt, können Sie das Feature ausschalten, indem Sie den Wert auf 1 ändern. Weitere Informationen finden Sie unter [AWS -Glue-Segmentstruktur](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-partitions.html#aws-glue-api-catalog-partitions-Segment).

**Bekannte Probleme**
+ Hue (in Amazon-EMR-Version 5.24.0 behoben)
  + Hue, das auf Amazon EMR läuft, unterstützt Solr nicht. Ab Amazon-EMR-Version 5.20.0 führt ein Problem mit der Fehlkonfiguration dazu, dass Solr aktiviert wird und eine harmlose Fehlermeldung ähnlich der folgenden angezeigt wird:

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **So wird verhindert, dass die Solr-Fehlermeldung angezeigt wird:**

    1. Stellen Sie über SSH eine Verbindung zur Befehlszeile des Primärknotens her.

    1. Verwenden Sie einen Texteditor zum Öffnen der `hue.ini`-Datei. Beispiel:

       `sudo vim /etc/hue/conf/hue.ini`

    1. Suchen Sie nach dem Begriff `appblacklist` und ändern Sie die Zeile wie folgt:

       ```
       appblacklist = search
       ```

    1. Speichern Sie Ihre Änderungen und starten Sie Hue wie im folgenden Beispiel gezeigt:

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez
  + Dieses Problem wurde in Amazon EMR 5.22.0 behoben.

    Wenn Sie *MasterDNS* über eine SSH-Verbindung zum primären Clusterknoten eine Verbindung zur Tez-Benutzeroberfläche unter http: //:8080/tez-ui herstellen, wird der Fehler „Adapteroperation failed — Timeline Server (ATS) is out of reach“ angezeigt. Entweder ist er ausgefallen oder CORS ist nicht aktiviert“ wird angezeigt, oder Aufgaben zeigen unerwartet „N/A“ an.

    Dies wird dadurch verursacht, dass die Tez-Benutzeroberfläche Anfragen an den YARN Timeline Server stellt und `localhost` nicht den Hostnamen des Primärknotens verwendet. Um dieses Problem zu umgehen, steht ein Skript zur Verfügung, das als Bootstrap-Aktion oder als Bootstrap-Schritt ausgeführt werden kann. Das Skript aktualisiert den Hostnamen in der `configs.env` Tez-Datei. Weitere Informationen und den Speicherort des Skripts finden Sie in den [Bootstrap-Anweisungen](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/).
+ In den Amazon-EMR-Versionen 5.19.0, 5.20.0 und 5.21.0 werden YARN-Knotenbezeichnungen in einem HDFS-Verzeichnis gespeichert. In einigen Situationen führt dies zu Verzögerungen beim Startup des Core-Knotens und dann zu einem Cluster-Timeout und einem Startfehler. Ab Amazon EMR 5.22.0 ist dieses Problem behoben. YARN-Knotenbezeichnungen werden auf der lokalen Festplatte jedes Clusterknotens gespeichert, wodurch Abhängigkeiten von HDFS vermieden werden. 
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 5.20.0 Komponentenversionen
<a name="emr-5200-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2.29.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.6.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.8 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.8 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.8 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.8 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.8 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.4-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.4-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.4-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.4-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.4-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.3.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.214 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.214 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.12.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.20.0 Konfigurationsklassifizierungen
<a name="emr-5200-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.20.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.19.1
<a name="emr-5191-release"></a>

## 5.19.1 Anwendungsversionen
<a name="emr-5191-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.433 | 1,11.433 | 1,11.393 | 1,11.393 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.212 | 0.210 | 0.210 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 

## 5.19.1 Versionshinweise
<a name="emr-5191-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.19.1 Komponentenversionen
<a name="emr-5191-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2.28.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.6.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.7 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.7 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.7 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.7 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.7 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.212 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.212 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.19.1 Konfigurationsklassifizierungen
<a name="emr-5191-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.19.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.19.0
<a name="emr-5190-release"></a>

## 5.19.0 Anwendungsversionen
<a name="emr-5190-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.433 | 1,11.393 | 1,11.393 | 1.11.336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.210 | 0.210 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 
| ZooKeeper | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.19.0 Versionshinweise
<a name="emr-5190-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.19.0. Änderungen beziehen sich auf Version 5.18.0.

Erste Version: 7. November 2018

Letzte Aktualisierung: 19. November 2018

**Upgrades**
+ Hadoop 2.8.5
+ Flink 1.6.1
+ JupyterHub 0,9.4
+ MXNet 1.3.0
+ Presto 0.212
+ TensorFlow 1.11.0
+ Zookeeper 3.4.13
+ AWS SDK für Java 1.11.433

**Neue Features**
+ (19. November 2018) EMR Notebooks ist eine verwaltete Umgebung, die auf Jupyter Notebook basiert. Es unterstützt Spark-Magic-Kernel für PySpark, Spark SQL, Spark R und Scala. EMR Notebooks können mit Clustern verwendet werden, die mit Amazon-EMR-Version 5.18.0 und höher erstellt wurden. Weitere Informationen finden Sie unter [Nutzung von EMR Notebooks](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Der S3-optimierte EMRFS-Committer ist beim Schreiben von Parquet-Dateien mit Spark und EMRFS verfügbar. Dieser Committer verbessert die Schreibleistung. Weitere Informationen finden Sie unter [EMRFS-S3-optimierte Committer verwenden](emr-spark-s3-optimized-committer.md).

**Änderungen, Verbesserungen und behobene Probleme**
+ YARN
  + Die Logik, die den Anwendungsmasterprozess auf die Ausführung auf Core-Knoten beschränkt, wurde geändert. Diese Funktionalität verwendet jetzt das Feature und Eigenschaften von YARN-Knotenbeschriftungen in den Klassifizierungen `yarn-site` und der `capacity-scheduler` Konfiguration. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.)
+ Standard-Amazon-Linux-AMI für Amazon EMR
  + `ruby18`, `php56` und `gcc48` sind nicht mehr standardmäßig installiert. Diese können auf Wunsch mit `yum` installiert werden.
  + Das aws-sdk Ruby Gem ist standardmäßig nicht mehr installiert. Es kann, falls gewünscht, mit `gem install aws-sdk` installiert werden. Bestimmte Komponenten können ebenfalls installiert werden. Beispiel, `gem install aws-sdk-s3`.

**Bekannte Probleme**
+ **EMR Notebooks** – Unter bestimmten Umständen kann es vorkommen, dass der Notebook-Editor keine Verbindung zum Cluster herstellen kann, wenn mehrere Notebook-Editoren geöffnet sind. Löschen Sie in diesem Fall die Browser-Cookies und öffnen Sie die Notebook-Editoren erneut.
+ **CloudWatch ContainerPending Metrische und automatische Skalierung** — (In 5.20.0 behoben) Amazon EMR gibt möglicherweise einen negativen Wert für aus. `ContainerPending` Wenn `ContainerPending` in einer Auto-Scaling-Regel verwendet wird, verhält sich das Auto Scaling nicht wie erwartet. Vermeiden Sie die Verwendung von `ContainerPending` mit automatischer Skalierung.
+ In den Amazon-EMR-Versionen 5.19.0, 5.20.0 und 5.21.0 werden YARN-Knotenbezeichnungen in einem HDFS-Verzeichnis gespeichert. In einigen Situationen führt dies zu Verzögerungen beim Startup des Core-Knotens und dann zu einem Cluster-Timeout und einem Startfehler. Ab Amazon EMR 5.22.0 ist dieses Problem behoben. YARN-Knotenbezeichnungen werden auf der lokalen Festplatte jedes Clusterknotens gespeichert, wodurch Abhängigkeiten von HDFS vermieden werden. 

## 5.19.0 Komponentenversionen
<a name="emr-5190-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.7.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.1 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2.28.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.6.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.5-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.5-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.5-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.7 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.7 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.7 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.7 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.7 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.9.4 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.3.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.212 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.212 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.13 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.13 | ZooKeeper Befehlszeilen-Client. | 

## 5.19.0 Konfigurationsklassifizierungen
<a name="emr-5190-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.19.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.18.1
<a name="emr-5181-release"></a>

## 5.18.1 Anwendungsversionen
<a name="emr-5181-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.393 | 1,11.393 | 1.11.336 | 1.11.336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.210 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.18.1 Versionshinweise
<a name="emr-5181-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.18.1 Komponentenversionen
<a name="emr-5181-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2.27.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.6.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.7 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.7 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.7 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.7 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.7 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.210 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.210 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.9.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.18.1 Konfigurationsklassifizierungen
<a name="emr-5181-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.18.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.18.0
<a name="emr-5180-release"></a>

## 5.18.0 Anwendungsversionen
<a name="emr-5180-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.393 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.206 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.18.0 Versionshinweise
<a name="emr-5180-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.18.0. Änderungen beziehen sich auf Version 5.17.0.

Veröffentlichungsdatum: 24. Oktober 2018

**Upgrades**
+ Flink 1.6.0
+ HBase 1,4.7
+ Presto 0.210
+ Spark 2.3.2
+ Zeppelin 0.8.0

**Neue Features**
+ Ab Amazon EMR 5.18.0 können Sie das Amazon-EMR-Artefakt-Repository verwenden, um Ihren Auftragscode anhand der genauen Versionen von Bibliotheken und Abhängigkeiten zu erstellen, die mit bestimmten Amazon-EMR-Versionen verfügbar sind. Weitere Informationen finden Sie unter [Überprüfen von Abhängigkeiten mithilfe des Amazon-EMR-Artefakt-Repositorys](emr-artifact-repository.md).

**Änderungen, Verbesserungen und behobene Probleme**
+ Hive
  + Unterstützung für S3 Select hinzugefügt. Weitere Informationen finden Sie unter [Verwendung von S3 Select mit Hive zur Verbesserung der Leistung](emr-hive-s3select.md).
+ Presto
  + Unterstützung für [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/) Pushdown hinzugefügt. Weitere Informationen finden Sie unter [S3-Select-Pushdown mit Presto zur Verbesserung der Leistung verwenden](emr-presto-s3select.md).
+ Spark
  + Die standardmäßige log4j-Konfiguration für Spark wurde dahingehend geändert, dass Container-Logs für Spark-Streaming-Aufträge stündlich angezeigt werden. Dadurch wird verhindert, dass Logs für Spark-Streaming-Aufträge mit langer Laufzeit gelöscht werden.

## 5.18.0 Komponentenversionen
<a name="emr-5180-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2.27.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.6.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.7 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.7 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.7 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.7 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.7 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.210 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.210 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.9.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.8.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.18.0 Konfigurationsklassifizierungen
<a name="emr-5180-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.18.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.17.2
<a name="emr-5172-release"></a>

## 5.17.2 Anwendungsversionen
<a name="emr-5172-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.206 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.2 Versionshinweise
<a name="emr-5172-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.17.2 Komponentenversionen
<a name="emr-5172-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.0.0 | EMR S3Select-Konnector | 
| emrfs | 2.26.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.5.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.6 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.6 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.6 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.6 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.6 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.206 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.206 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.9.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.17.2 Konfigurationsklassifizierungen
<a name="emr-5172-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.17.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.17.1
<a name="emr-5171-release"></a>

## 5.17.1 Anwendungsversionen
<a name="emr-5171-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.203 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.1 Versionshinweise
<a name="emr-5171-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.17.1. Änderungen beziehen sich auf Version 5.17.0.

Erste Version: 18. Juli 2019

**Änderungen, Verbesserungen und behobene Probleme**
+ Das standardmäßige Amazon Linux AMI für Amazon EMR wurde aktualisiert, sodass es wichtige Sicherheitsupdates für den Linux-Kernel enthält, darunter das „TCP SACK Denial of Service Issue“ ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

## 5.17.1 Komponentenversionen
<a name="emr-5171-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.0.0 | EMR S3Select-Konnector | 
| emrfs | 2.26.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.5.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.6 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.6 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.6 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.6 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.6 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.206 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.206 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.9.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.17.1 Konfigurationsklassifizierungen
<a name="emr-5171-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.17.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.17.0
<a name="emr-5170-release"></a>

## 5.17.0 Anwendungsversionen
<a name="emr-5170-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.333 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.203 | 0.203 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.0 Versionshinweise
<a name="emr-5170-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.17.0. Änderungen beziehen sich auf Version 5.16.0.

Erste Version: 30. August 2018

**Upgrades**
+ Flink 1.5.2
+ HBase 1.4.6
+ Presto 0.206

**Neue Features**
+ Unterstützung für Tensorflow hinzugefügt. Weitere Informationen finden Sie unter [TensorFlow](emr-tensorflow.md).

**Änderungen, Verbesserungen und behobene Probleme**
+ JupyterHub
  + Unterstützung für Notebook-Persistenz in Amazon S3 hinzugefügt. Weitere Informationen finden Sie unter [Konfigurieren von Persistenz für Notebooks in Amazon S3](emr-jupyterhub-s3.md).
+ Spark
  + Unterstützung für [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/) hinzugefügt. Weitere Informationen finden Sie unter [S3 Select mit Spark zur Verbesserung der Leistung bei Abfragen verwenden](emr-spark-s3select.md).
+ Die Probleme mit den Cloudwatch-Metriken und des automatischen Skalierungsfeatures in Amazon-EMR-Version 5.14.0, 5.15.0 oder 5.16.0 wurden behoben. 

**Bekannte Probleme**
+ Wenn Sie einen kerberisierten Cluster mit installiertem Livy erstellen, schlägt Livy mit der Fehlermeldung fehl, dass die einfache Authentifizierung nicht aktiviert ist. Ein Neustart des Livy-Servers behebt das Problem. Um das Problem zu umgehen, fügen Sie während der Clustererstellung einen Schritt `sudo restart livy-server` hinzu, der auf dem Primärknoten ausgeführt wird.
+ Wenn Sie ein benutzerdefiniertes Amazon-Linux-AMI verwenden, das auf einem Amazon-Linux-AMI mit einem Erstellungsdatum vom 8.11.2018 basiert, kann der Oozie-Server nicht gestartet werden. Wenn Sie Oozie verwenden, erstellen Sie ein benutzerdefiniertes AMI, das auf einer Amazon-Linux-AMI-ID mit einem anderen Erstellungsdatum basiert. Sie können den folgenden AWS CLI Befehl verwenden, um eine Liste mit Images IDs für alle HVM Amazon Linux AMIs mit einer Version 2018.03 zusammen mit dem Veröffentlichungsdatum zurückzugeben, sodass Sie ein geeignetes Amazon Linux-AMI als Basis auswählen können. MyRegion Ersetzen Sie es durch Ihre Regionskennung, z. B. us-west-2.

  ```
  aws ec2 --region MyRegion describe-images --owner amazon --query 'Images[?Name!=`null`]|[?starts_with(Name, `amzn-ami-hvm-2018.03`) == `true`].[CreationDate,ImageId,Name]' --output text | sort -rk1
  ```

## 5.17.0 Komponentenversionen
<a name="emr-5170-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.5.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.0.0 | EMR S3Select-Konnector | 
| emrfs | 2.26.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.5.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.6 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.6 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.6 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.6 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.6 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.206 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.206 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 1.9.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.17.0 Konfigurationsklassifizierungen
<a name="emr-5170-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.17.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.16.1
<a name="emr-5161-release"></a>

## 5.16.1 Anwendungsversionen
<a name="emr-5161-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.336 | 1.11.336 | 1.11.333 | 1,11.333 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,1,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.203 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.16.1 Versionshinweise
<a name="emr-5161-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.16.1 Komponentenversionen
<a name="emr-5161-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.25.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.5.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.4 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.4 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.4 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.4 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.4 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.203 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.203 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.16.1 Konfigurationsklassifizierungen
<a name="emr-5161-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.16.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.16.0
<a name="emr-5160-release"></a>

## 5.16.0 Anwendungsversionen
<a name="emr-5160-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.336 | 1.11.333 | 1,11.333 | 1.11.297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 
| Phoenix | 4,14,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 

## 5.16.0 Versionshinweise
<a name="emr-5160-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.16.0. Änderungen beziehen sich auf Version 5.15.0.

Erste Version: 19. Juli 2018

**Upgrades**
+ Hadoop 2.8.4
+ Flink 1.5.0
+ Livy 0.5.0
+ MXNet 1.2.0
+ Phoenix 4.14.0
+ Presto 0.203
+ Spark 2.3.1
+ AWS SDK für Java 1.11.336
+ CUDA 9.2
+ Redshift-JDBC-Treiber 1.2.15.1025

**Änderungen, Verbesserungen und behobene Probleme**
+ HBase
  + [HBASE-20723](https://issues.apache.org/jira/browse/HBASE-20723) wurde rückportiert
+ Presto
  + Konfigurationsänderungen zur Unterstützung der LDAP-Authentifizierung. Weitere Informationen finden Sie unter [LDAP-Authentifizierung für Presto in Amazon EMR verwenden](emr-presto-ldap.md).
+ Spark
  + Apache-Spark-Version 2.3.1, verfügbar ab Amazon-EMR-Version 5.16.0, adressiert [CVE-2018-8024](https://nvd.nist.gov/vuln/detail/CVE-2018-8024) und [CVE-2018-1334.](https://nvd.nist.gov/vuln/detail/CVE-2018-1334) Wir empfehlen, dass Sie frühere Versionen von Spark zu Spark-Version 2.3.1 oder höher migrieren.

**Bekannte Probleme**
+ Diese Release-Version unterstützt die Instance-Typen c1.medium oder m1.small nicht. Cluster, die einen dieser Instance-Typen verwenden, können nicht gestartet werden. Um das Problem zu umgehen, geben Sie einen anderen Instance-Typ an oder verwenden Sie eine andere Release-Version.
+ Wenn Sie einen kerberisierten Cluster mit installiertem Livy erstellen, schlägt Livy mit der Fehlermeldung fehl, dass die einfache Authentifizierung nicht aktiviert ist. Ein Neustart des Livy-Servers behebt das Problem. Um das Problem zu umgehen, fügen Sie während der Clustererstellung einen Schritt `sudo restart livy-server` hinzu, der auf dem Primärknoten ausgeführt wird.
+ Nach dem Neustart des Primärknotens oder des Instance-Controllers werden die CloudWatch Metriken nicht erfasst und die automatische Skalierungsfunktion ist in Amazon EMR Version 5.14.0, 5.15.0 oder 5.16.0 nicht verfügbar. Dieses Problem wurde in Amazon EMR 5.17.0 behoben. 

## 5.16.0 Komponentenversionen
<a name="emr-5160-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.6.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.25.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.5.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.4-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.4-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.4-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.4 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.4 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.4 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.4 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.4 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.5.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.2.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.14.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,1,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.203 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.203 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.16.0 Konfigurationsklassifizierungen
<a name="emr-5160-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.16.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.15.1
<a name="emr-5151-release"></a>

## 5.15.1 Anwendungsversionen
<a name="emr-5151-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.333 | 1,11.333 | 1.11.297 | 1,11.297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 

## 5.15.1 Versionshinweise
<a name="emr-5151-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.15.1 Komponentenversionen
<a name="emr-5151-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.24.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.4 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.4 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.4 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.4 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.4 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.1.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.15.1 Konfigurationsklassifizierungen
<a name="emr-5151-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.15.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.15.0
<a name="emr-5150-release"></a>

## 5.15.0 Anwendungsversionen
<a name="emr-5150-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.333 | 1.11.297 | 1,11.297 | 1,11.297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.15.0 Versionshinweise
<a name="emr-5150-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.15.0. Änderungen beziehen sich auf Version 5.14.0.

Erste Version: 21. Juni 2018

**Upgrades**
+ Auf 1.4.4 aktualisiert HBase 
+ Upgrade auf Hive 2.3.3
+ Upgrade auf Hue 4.2.0
+ Upgrade auf Oozie 5.0.0
+ Upgrade auf ZooKeeper 3.4.12.
+  AWS SDK auf 1.11.333 aktualisiert

**Änderungen, Verbesserungen und behobene Probleme**
+ Hive
  + [HIVE-18069](https://issues.apache.org/jira/browse/HIVE-18069) wurde rückportiert
+ Hue
  + Hue wurde aktualisiert, um sich korrekt bei Livy zu authentifizieren, wenn Kerberos aktiviert ist. Livy wird jetzt unterstützt, wenn Kerberos mit Amazon EMR verwendet wird.
+ JupyterHub
  + Aktualisiert, JupyterHub sodass Amazon EMR standardmäßig LDAP-Clientbibliotheken installiert.
  + Ein Fehler im Skript, das selbstsignierte Zertifikate generiert, wurde behoben. 

**Bekannte Probleme**
+ Diese Release-Version unterstützt die Instance-Typen c1.medium oder m1.small nicht. Cluster, die einen dieser Instance-Typen verwenden, können nicht gestartet werden. Um das Problem zu umgehen, geben Sie einen anderen Instance-Typ an oder verwenden Sie eine andere Release-Version.
+ Nach dem Neustart des Primärknotens oder des Instance-Controllers werden die CloudWatch Metriken nicht erfasst und die automatische Skalierungsfunktion ist in Amazon EMR Version 5.14.0, 5.15.0 oder 5.16.0 nicht verfügbar. Dieses Problem wurde in Amazon EMR 5.17.0 behoben. 

## 5.15.0 Komponentenversionen
<a name="emr-5150-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.24.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.4 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.4 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.4 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.4 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.4 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.3-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.3-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.3-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.3-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.3-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.3-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.2.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.1.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.0.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.0.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.12 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.12 | ZooKeeper Befehlszeilen-Client. | 

## 5.15.0 Konfigurationsklassifizierungen
<a name="emr-5150-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.15.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.14.2
<a name="emr-5142-release"></a>

## 5.14.2 Anwendungsversionen
<a name="emr-5142-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.297 | 1,11.297 | 1,11.297 | 1,11.297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.2 Versionshinweise
<a name="emr-5142-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.14.2 Komponentenversionen
<a name="emr-5142-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.23.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.1.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.14.2 Konfigurationsklassifizierungen
<a name="emr-5142-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.14.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.14.1
<a name="emr-5141-release"></a>

## 5.14.1 Anwendungsversionen
<a name="emr-5141-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.297 | 1,11.297 | 1,11.297 | 1,11.297 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.1 Versionshinweise
<a name="emr-5141-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.14.1. Änderungen beziehen sich auf Version 5.14.0.

Veröffentlichungsdatum: 17. Oktober 2018

Das Standard-AMI für Amazon EMR wurde aktualisiert, um potenzielle Sicherheitslücken zu schließen.

## 5.14.1 Komponentenversionen
<a name="emr-5141-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.23.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.1.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.14.1 Konfigurationsklassifizierungen
<a name="emr-5141-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.14.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.14.0
<a name="emr-5140-release"></a>

## 5.14.0 Anwendungsversionen
<a name="emr-5140-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.297 | 1,11.297 | 1,11.297 | 1.11.267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 
| Sqoop | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.0 Versionshinweise
<a name="emr-5140-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.14.0. Änderungen beziehen sich auf Version 5.13.0.

Erste Version: 4. Juni 2018

**Upgrades**
+ Upgrade auf Apache Flink 1.4.2
+ Apache wurde auf 1.1.0 aktualisiert MXnet 
+ Apache Sqoop auf 1.4.7 aktualisiert

**Neue Features**
+  JupyterHub Unterstützung hinzugefügt. Weitere Informationen finden Sie unter [JupyterHub](emr-jupyterhub.md).

**Änderungen, Verbesserungen und behobene Probleme**
+ EMRFS
  + Die UserAgent-Zeichenfolge in Anfragen an Amazon S3 wurde aktualisiert und enthält nun die Benutzer- und Gruppeninformationen des aufrufenden Prinzipals. Dies kann zusammen mit AWS CloudTrail Protokollen für eine umfassendere Nachverfolgung von Anfragen verwendet werden.
+ HBase
  +  [HBASE-20447](https://issues.apache.org/jira/browse/HBASE-20447) ist enthalten, das ein Problem behebt, das zu Cache-Problemen führen kann, insbesondere bei geteilten Regionen. 
+ MXnet
  + OpenCV-Plattformversion.
+ Spark
  + Wenn Spark Parquet-Dateien mithilfe von EMRFS an einen Amazon S3 S3-Speicherort schreibt, wurde der FileOutputCommitter Algorithmus aktualisiert, sodass er Version 2 statt Version 1 verwendet. Dies reduziert die Anzahl der Umbenennungen, was die Anwendungsleistung verbessert. Diese Änderung beeinträchtigt nicht: 
    + Andere Anwendungen als Spark. 
    + Anwendungen, die in andere Dateisysteme schreiben, wie HDFS (die immer noch Version 1 von verwenden). FileOutputCommitter
    + Anwendungen, die andere Ausgabeformate wie Text oder CSV verwenden, die bereits EMRFS Direct Write verwenden.

**Bekannte Probleme**
+ JupyterHub
  + Die Verwendung von Konfigurationsklassifizierungen zur Einrichtung JupyterHub und individuellen Einrichtung von Jupyter-Notebooks beim Erstellen eines Clusters wird nicht unterstützt. Bearbeiten Sie die Dateien jupyterhub\$1config.py und jupyter\$1notebook\$1config.py für jeden Benutzer manuell. Weitere Informationen finden Sie unter [Konfiguration JupyterHub](emr-jupyterhub-configure.md).
  + JupyterHub kann auf Clustern innerhalb eines privaten Subnetzes nicht gestartet werden und schlägt mit der Meldung fehl. `Error: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt' ` Dies wird durch einen Fehler im Skript verursacht, das selbstsignierte Zertifikate generiert. Verwenden Sie die folgende Problemumgehung zum Generieren selbstsignierter Zertifikate. Alle Befehle werden ausgeführt, während Sie mit dem Primärknoten verbunden sind.

    1. Kopieren Sie das Skript zur Zertifikatsgenerierung aus dem Container auf den Primärknoten:

       ```
       sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
       ```

    1. Verwenden Sie einen Texteditor, um Zeile 23 zu ändern, um den öffentlichen Hostnamen in den lokalen Hostnamen zu ändern, wie unten gezeigt:

       ```
       local hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local-hostname)
       ```

    1. Führen Sie das Skript aus, um selbstsignierte Zertifikate zu generieren:

       ```
       sudo bash ./gen_self_signed_cert.sh
       ```

    1. Verschieben Sie die Zertifikatsdateien, die das Skript generiert, in das `/etc/jupyter/conf/`-Verzeichnis:

       ```
       sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/
       ```

    Sie können `tail` die `jupyter.log` Datei überprüfen, um zu überprüfen, ob sie JupyterHub neu gestartet wurde und einen 200-Antwortcode zurückgibt. Beispiel:

    ```
    tail -f /var/log/jupyter/jupyter.log
    ```

    Dadurch sollte eine Antwort ähnlich der folgenden ausgegeben:

    ```
    # [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/
    # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
    ```
+ Nach dem Neustart des Primärknotens oder des Instance-Controllers werden die CloudWatch Metriken nicht erfasst und die automatische Skalierungsfunktion ist in Amazon EMR Version 5.14.0, 5.15.0 oder 5.16.0 nicht verfügbar. Dieses Problem wurde in Amazon EMR 5.17.0 behoben. 

## 5.14.0 Komponentenversionen
<a name="emr-5140-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.23.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 0.8.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.1.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.14.0 Konfigurationsklassifizierungen
<a name="emr-5140-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.14.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.13.1
<a name="emr-5131-release"></a>

## 5.13.1 Anwendungsversionen
<a name="emr-5131-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.297 | 1,11.297 | 1.11.267 | 1.11.267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.13.1 Versionshinweise
<a name="emr-5131-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.13.1 Komponentenversionen
<a name="emr-5131-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.22.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.0.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.13.1 Konfigurationsklassifizierungen
<a name="emr-5131-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.13.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.13.0
<a name="emr-5130-release"></a>

## 5.13.0 Anwendungsversionen
<a name="emr-5130-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.297 | 1.11.267 | 1.11.267 | 1.11.267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.13.0 Versionshinweise
<a name="emr-5130-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.13.0. Änderungen beziehen sich auf Version 5.12.0.

**Upgrades**
+ Upgrade auf Spark 2.3.0
+ Auf 1.4.2 aktualisiert HBase 
+ Upgrade auf Presto 0.194
+ Auf AWS SDK für Java 1.11.297 aktualisiert

**Änderungen, Verbesserungen und behobene Probleme**
+ Hive
  + [HIVE-15436](https://issues.apache.org/jira/browse/HIVE-15436) wurde rückportiert. Hive wurde dahingehend verbessert APIs , dass nur Ansichten zurückgegeben werden.

**Bekannte Probleme**
+ MXNet hat derzeit keine OpenCV-Bibliotheken.

## 5.13.0 Komponentenversionen
<a name="emr-5130-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.10.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.22.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.0.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.194 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.194 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.1 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.3.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.3.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.3.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.3.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.13.0 Konfigurationsklassifizierungen
<a name="emr-5130-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.13.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.12.3
<a name="emr-5123-release"></a>

## 5.12.3 Anwendungsversionen
<a name="emr-5123-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.267 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.3 Versionshinweise
<a name="emr-5123-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.12.3 Komponentenversionen
<a name="emr-5123-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.9.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.21.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.0.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.188 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.188 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.12.3 Konfigurationsklassifizierungen
<a name="emr-5123-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.12.3-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.12.2
<a name="emr-5122-release"></a>

## 5.12.2 Anwendungsversionen
<a name="emr-5122-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.2 Versionshinweise
<a name="emr-5122-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.12.2. Änderungen beziehen sich auf Version 5.12.1

Erste Version: 29. August 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Diese Version behebt eine potenzielle Schwachstellen.

## 5.12.2 Komponentenversionen
<a name="emr-5122-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.9.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.21.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.0.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.188 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.188 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.12.2 Konfigurationsklassifizierungen
<a name="emr-5122-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.12.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.12.1
<a name="emr-5121-release"></a>

## 5.12.1 Anwendungsversionen
<a name="emr-5121-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.267 | 1.11.267 | 1.11.238 | 1,11.238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.1 Versionshinweise
<a name="emr-5121-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.12.1. Änderungen beziehen sich auf Version 5.12.0.

Erste Version: 29. März 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Der Amazon-Linux-Kernel des standardmäßigen Amazon-Linux-AMI für Amazon EMR wurde aktualisiert, um potenzielle Schwachstellen zu schließen.

## 5.12.1 Komponentenversionen
<a name="emr-5121-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.9.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.21.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.0.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.188 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.188 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.12.1 Konfigurationsklassifizierungen
<a name="emr-5121-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.12.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.12.0
<a name="emr-5120-release"></a>

## 5.12.0 Anwendungsversionen
<a name="emr-5120-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.267 | 1.11.238 | 1,11.238 | 1,11.238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,13,0- -1,4 HBase | 4,11,0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.0 Versionshinweise
<a name="emr-5120-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.12.0. Änderungen beziehen sich auf Version 5.11.1.

**Upgrades**
+ AWS SDK for Java 1.11.238 ⇒ 1.11.267. Weitere Informationen finden Sie im [AWS SDK for Java Change Log](https://github.com/aws/aws-sdk-java/blob/master/CHANGELOG.md) on GitHub.
+ Hadoop 2.7.3 ⇒ 2.8.3. Weitere Informationen finden Sie unter [Apache Hadoop im Releases](http://hadoop.apache.org/releases.html).
+ Flink 1.3.2 ⇒ 1.4.0. Weitere Informationen finden Sie in der [Versionsankündigung zu Apache Flink 1.4.0](https://flink.apache.org/news/2017/12/12/release-1.4.0.html).
+ HBase 1.3.1 ⇒ 1.4.0. Weitere Informationen finden Sie in der [HBase Versionsankündigung](http://mail-archives.apache.org/mod_mbox/www-announce/201712.mbox/%3CCA+RK=_AU+tB=7SU1HRbeKVEd-sKA5WcJo3oa43vQ6PMB3L9pgQ@mail.gmail.com%3E).
+ Hue 4.0.1 ⇒ 4.1.0. Weitere Informationen finden Sie in den [Versionshinweisen](https://docs.gethue.com/releases/release-notes-4.10.0/).
+ MxNet 0.12.0 ⇒ 1.0.0. Weitere Informationen finden Sie im [MXNet Change](https://github.com/apache/incubator-mxnet/releases/tag/1.0.0) Log on. GitHub
+ Presto 0.187 ⇒ 0.188. Weitere Informationen finden Sie in den [Versionshinweisen](https://prestodb.io/docs/current/release/release-0.188.html).

**Änderungen, Verbesserungen und behobene Probleme**
+ **Hadoop**
  + Die `yarn.resourcemanager.decommissioning.timeout`-Eigenschaft wurde zu `yarn.resourcemanager.nodemanager-graceful-decommission-timeout-secs` geändert. Sie können diese Eigenschaft verwenden, um die Cluster-Skalierung anzupassen. Weitere Informationen finden Sie unter [Cluster Sale down](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html) im *Verwaltungshandbuch für Amazon EMR*.
  + Die Hadoop-CLI hat die `-d`-Option zum Befehl `cp` (kopieren) hinzugefügt, der das direkte Kopieren spezifiziert. Sie können dies verwenden, um die Erstellung einer `.COPYING`-Zwischendatei zu vermeiden, wodurch das Kopieren von Daten zwischen Amazon S3 beschleunigt wird. Weitere Informationen finden Sie unter [HADOOP-12384](https://issues.apache.org/jira/browse/HADOOP-12384).
+ **Pig**
  + Die `pig-env`-Konfigurationsklassifizierung wurde hinzugefügt, die die Konfiguration der Pig-Umgebungseigenschaften vereinfacht. Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).
+ **Presto**
  + Die Konfigurationsklassifizierung `presto-connector-redshift` wurde hinzugefügt, mit der Sie Werte in der Presto `redshift.properties` konfigurieren können. Weitere Informationen finden Sie unter [Redshift Connector](https://prestodb.io/docs/current/connector/redshift.html) in der Presto-Dokumentation und [Anwendungen konfigurieren](emr-configure-apps.md).
  + Presto-Unterstützung für EMRFS wurde hinzugefügt und ist die Standardkonfiguration. Frühere Amazon EMR-Versionen verwendeten PrestoS3FileSystem, was die einzige Option war. Weitere Informationen finden Sie unter [EMRFS- und PrestoS3-Konfiguration FileSystem](emr-presto-considerations.md#emr-presto-prestos3).
**Anmerkung**  
Wenn Sie die zugrunde liegenden Daten in Amazon S3 mit Amazon-EMR-Version 5.12.0 abfragen, können Presto-Fehler auftreten. Dies liegt daran, dass Presto die Konfigurationsklassifizierungswerte von `emrfs-site.xml` nicht abruft. Um dieses Problem zu umgehen, erstellen Sie ein `emrfs`-Unterverzeichnis unter `usr/lib/presto/plugin/hive-hadoop2/` und erstellen einen Symlink `usr/lib/presto/plugin/hive-hadoop2/emrfs` zu der vorhandenen Datei `/usr/share/aws/emr/emrfs/conf/emrfs-site.xml`. Starten Sie dann den Presto-Server-Prozess neu (`sudo presto-server stop` gefolgt von `sudo presto-server start`).
+ **Spark**
  + [SPARK-22036](https://issues.apache.org/jira/browse/SPARK-22036) rückportiert: Multiplikation gibt manchmal Null zurück. BigDecimal 

**Bekannte Probleme**
+ MXNet enthält keine OpenCV-Bibliotheken.
+ SparkR ist nicht für Cluster verfügbar, die mit einem benutzerdefinierten AMI erstellt wurden, da R nicht standardmäßig auf Clusterknoten installiert ist.

## 5.12.0 Komponentenversionen
<a name="emr-5120-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.9.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.21.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.4.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.8.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.4.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.4.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.4.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.4.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.4.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-1 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.1.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 1.0.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.1.85 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.13.0- -1.4 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,13,0- -1,4 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.188 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.188 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.12.0 Konfigurationsklassifizierungen
<a name="emr-5120-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.12.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.11.4
<a name="emr-5114-release"></a>

## 5.11.4 Anwendungsversionen
<a name="emr-5114-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.238 | 1,11.238 | 1,11.238 | 1,11.238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.4 Versionshinweise
<a name="emr-5114-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.11.4 Komponentenversionen
<a name="emr-5114-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1,0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.8.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.11.4 Konfigurationsklassifizierungen
<a name="emr-5114-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.11.4-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.11.3
<a name="emr-5113-release"></a>

## 5.11.3 Anwendungsversionen
<a name="emr-5113-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.238 | 1,11.238 | 1,11.238 | 1,11.238 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.3 Versionshinweise
<a name="emr-5113-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.11.3. Änderungen beziehen sich auf Version 5.11.2.

Erste Version: 18. Juli 2019

**Änderungen, Verbesserungen und behobene Probleme**
+ Das standardmäßige Amazon Linux AMI für Amazon EMR wurde aktualisiert, sodass es wichtige Sicherheitsupdates für den Linux-Kernel enthält, darunter das „TCP SACK Denial of Service Issue“ ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/)).

## 5.11.3 Komponentenversionen
<a name="emr-5113-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1,0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.8.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.11.3 Konfigurationsklassifizierungen
<a name="emr-5113-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.11.3-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.11.2
<a name="emr-5112-release"></a>

## 5.11.2 Anwendungsversionen
<a name="emr-5112-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.238 | 1,11.238 | 1,11.238 | 1.11.221 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.2 Versionshinweise
<a name="emr-5112-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.11.2. Änderungen beziehen sich auf Version 5.11.1.

Erste Version: 29. August 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Diese Version behebt eine potenzielle Schwachstellen.

## 5.11.2 Komponentenversionen
<a name="emr-5112-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1,0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.8.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.11.2 Konfigurationsklassifizierungen
<a name="emr-5112-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.11.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.11.1
<a name="emr-5111-release"></a>

## 5.11.1 Anwendungsversionen
<a name="emr-5111-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.238 | 1,11.238 | 1.11.221 | 1.11.221 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.1 Versionshinweise
<a name="emr-5111-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.11.1. Änderungen beziehen sich auf Amazon-EMR-Version 5.8.0.

Erste Version: 22. Januar 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Der Amazon-Linux-Kernel des standardmäßigen Amazon-Linux-AMI für Amazon EMR wurde aktualisiert, um Schwachstellen im Zusammenhang mit spekulativer Ausführung zu beheben (CVE-2017-5715, CVE-2017-5753 und CVE-2017-5754). Weitere Informationen finden Sie unter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## 5.11.1 Komponentenversionen
<a name="emr-5111-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1,0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.8.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.11.1 Konfigurationsklassifizierungen
<a name="emr-5111-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.11.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.11.0
<a name="emr-5110-release"></a>

## 5.11.0 Anwendungsversionen
<a name="emr-5110-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.238 | 1.11.221 | 1.11.221 | 1.11.183 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | Nicht nachverfolgt | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 
| Hive | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.184 | 
| Spark | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.0 Versionshinweise
<a name="emr-5110-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.11.0. Änderungen beziehen sich auf Version 5.10.0.

**Upgrades**
+ Hive 2.3.2
+ Spark 2.2.1
+ SDK für Java 1.11.238

**Neue Features**
+ Spark
  + Die Einstellung `spark.decommissioning.timeout.threshold` wurde hinzugefügt, was das Verhalten von Spark bei der Außerbetriebnahme bei Verwendung von Spot Instances verbessert. Weitere Informationen finden Sie unter [Verhalten der Außerbetriebnahme von Knoten konfigurieren](emr-spark-configure.md#spark-decommissioning).
  + Die `aws-sagemaker-spark-sdk` Komponente wurde zu Spark hinzugefügt, die Amazon SageMaker Spark und zugehörige Abhängigkeiten für die Spark-Integration mit [Amazon](https://aws.amazon.com/sagemaker/) installiert SageMaker. Sie können Amazon SageMaker Spark verwenden, um Spark-Pipelines für maschinelles Lernen (ML) mithilfe von SageMaker Amazon-Stufen zu erstellen. Weitere Informationen finden Sie in der [SageMaker Spark-Readme-Datei](https://github.com/aws/sagemaker-spark/blob/master/README.md) zu Apache Spark GitHub und zur [Verwendung von Apache Spark mit Amazon SageMaker](https://docs.aws.amazon.com/sagemaker/latest/dg/apache-spark.html) im *Amazon SageMaker Developer Guide*.

**Bekannte Probleme**
+ MXNet enthält keine OpenCV-Bibliotheken.
+ Hive 2.3.2 setzt `hive.compute.query.using.stats=true` standardmäßig. Dies bewirkt, dass Abfragen Daten aus vorhandenen Statistiken und nicht direkt aus den Daten abrufen, da diese unübersichtlich sein können. Wenn Sie beispielsweise über eine Tabelle mit `hive.compute.query.using.stats=true` verfügen und neue Dateien in die Tabelle `LOCATION` hochladen, gibt die Abfrage `SELECT COUNT(*)` in der Tabelle die Anzahl aus den Statistiken zurück, anstatt die hinzugefügten Zeilen abzurufen.

  Um dieses Problem zu umgehen, verwenden Sie den Befehl `ANALYZE TABLE`, um neue Statistiken zu sammeln, oder legen Sie `hive.compute.query.using.stats=false` fest. Weitere Informationen finden Sie unter [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) in der Apache Hive-Dokumentation.

## 5.11.0 Komponentenversionen
<a name="emr-5110-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1,0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.8.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.11.0 Konfigurationsklassifizierungen
<a name="emr-5110-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.11.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.10.1
<a name="emr-5101-release"></a>

## 5.10.1 Anwendungsversionen
<a name="emr-5101-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.221 | 1.11.221 | 1.11.183 | 1.11,183 | 
| Python | 2,7, 3,4 | 2,7, 3,4 | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 
| Hive | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.184 | 0.184 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.10.1 Versionshinweise
<a name="emr-5101-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.10.1 Komponentenversionen
<a name="emr-5101-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.7.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.10.1 Konfigurationsklassifizierungen
<a name="emr-5101-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.10.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.10.0
<a name="emr-5100-release"></a>

## 5.10.0 Anwendungsversionen
<a name="emr-5100-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/),, [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), und [https://tez.apache.org/](https://tez.apache.org/) [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.221 | 1.11.183 | 1.11,183 | 1.11.160 | 
| Python | 2,7, 3,4 | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 
| Hive | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  | 
| MXNet | 0.12.0 |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 
| Presto | 0.187 | 0.184 | 0.184 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.10.0 Versionshinweise
<a name="emr-5100-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.10.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.9.0.

**Upgrades**
+ AWS SDK für Java 1,11.221
+ Hive 2.3.1
+ Presto 0.187

**Neue Features**
+ Die Kerberos-Authentifizierung wird jetzt unterstützt. Weitere Informationen finden Sie unter [Verwendung der Kerberos-Authentifizierung](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Unterstützung für IAM-Rollen für EMRFS-Anfragen hinzugefügt. Weitere Informationen finden Sie unter [Konfigurieren von IAM-Rollen für EMRFS Requests zu Amazon S3](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-emrfs-iam-role.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Unterstützung für GPU-basierte P2- und P3-Instance-Typen hinzugefügt. Weitere Informationen finden Sie unter [Amazon-EC2-P2-Instances](https://aws.amazon.com/ec2/instance-types/p2/) und [Amazon-EC2-P3-Instances](https://aws.amazon.com/ec2/instance-types/p3/). NVIDIA-Treiber 384.81 und CUDA-Treiber 9.0.176 sind auf diesen Instance-Typen standardmäßig installiert.
+ Unterstützung für [Apache MXNet](emr-mxnet.md) hinzugefügt.

**Änderungen, Verbesserungen und behobene Probleme**
+ Presto
  + Unterstützung für die Verwendung des AWS Glue-Datenkatalogs als Standard-Hive-Metastore hinzugefügt. Weitere Informationen finden Sie unter [Presto mit dem AWS Glue-Datenkatalog verwenden](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html#emr-presto-glue).
  + Unterstützung von [koordinatenbasierten Funktionen](https://prestodb.io/docs/current/functions/geospatial.html) hinzugefügt.
  + Unterstützung eines [Überlaufs auf die Festplatte](https://prestodb.io/docs/current/admin/spill.html) für Joins hinzugefügt.
  + Unterstützung für den [Redshift-Connector](https://prestodb.io/docs/current/connector/redshift.html) hinzugefügt.
+ Spark
  + Rückportierung von [SPARK-20640](https://issues.apache.org/jira/browse/SPARK-20640), mit der der rpc-Timeout und die erneuten Versuche für das Shuffling von Registrierungswerten unter Verwendung von `spark.shuffle.registration.timeout` bzw. `spark.shuffle.registration.maxAttempts` konfiguriert werden können.
  + [SPARK-21549](https://issues.apache.org/jira/browse/SPARK-21549) wurde rückportiert, wodurch ein Fehler behoben wird, der beim Schreiben von benutzerdefinierten Speicherorten in Nicht-HDFS-Speicherorte auftritt. OutputFormat 
+ Rückportierung von [Hadoop-13270](https://issues.apache.org/jira/browse/HADOOP-13270)
+ Die Bibliotheken Numpy, Scipy und Matplotlib wurden aus der grundlegenden Amazon-EMR-AMI entfernt. Wenn diese Bibliotheken für Ihre Anwendung erforderlich sind, werden sie im folgenden Repository bereitgestellt, sodass Sie sie unter Verwendung einer Bootstrap-Aktion mit `yum install` auf allen Knoten installieren können.
+ Die Amazon-EMR-Basis-AMI enthält keine Anwendungs-RPM-Paketen mehr, sodass die RPM-Pakete nicht mehr auf Cluster-Knoten vorhanden sind. Custom AMIs und das Amazon EMR-Basis-AMI verweisen jetzt auf das RPM-Paket-Repository in Amazon S3.
+ Aufgrund der Einführung von der sekundenweisen Abrechnung in Amazon EC2 ist die Standardeinstellung für **Verhalten beim Herunterskalieren** jetzt **Nach Abschluss der Aufgabe beenden** anstelle von **Zu einem Zeitpunkt auf der Instance beenden**. Weitere Informationen finden Sie unter [Konfigurieren eines Cluster-Scale-Downs](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html).

**Bekannte Probleme**
+ MXNet enthält keine OpenCV-Bibliotheken.
+ Hive 2.3.1 setzt `hive.compute.query.using.stats=true` standardmäßig. Dies bewirkt, dass Abfragen Daten aus vorhandenen Statistiken und nicht direkt aus den Daten abrufen, da diese unübersichtlich sein können. Wenn Sie beispielsweise über eine Tabelle mit `hive.compute.query.using.stats=true` verfügen und neue Dateien in die Tabelle `LOCATION` hochladen, gibt die Abfrage `SELECT COUNT(*)` in der Tabelle die Anzahl aus den Statistiken zurück, anstatt die hinzugefügten Zeilen abzurufen.

  Um dieses Problem zu umgehen, verwenden Sie den Befehl `ANALYZE TABLE`, um neue Statistiken zu sammeln, oder legen Sie `hive.compute.query.using.stats=false` fest. Weitere Informationen finden Sie unter [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) in der Apache Hive-Dokumentation.

## 5.10.0 Komponentenversionen
<a name="emr-5100-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.7.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.20.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mxnet | 0.12.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| nvidia-cuda | 9.0.176 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.187 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.187 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.3 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.10.0 Konfigurationsklassifizierungen
<a name="emr-5100-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.10.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.9.1
<a name="emr-591-release"></a>

## 5.9.1 Anwendungsversionen
<a name="emr-591-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.183 | 1.11,183 | 1.11.160 | 1,11.160 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.184 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.9.1 Versionshinweise
<a name="emr-591-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.9.1 Komponentenversionen
<a name="emr-591-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.7.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.19.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.184 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.184 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.9.1 Konfigurationsklassifizierungen
<a name="emr-591-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.9.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.9.0
<a name="emr-590-release"></a>

## 5.9.0 Anwendungsversionen
<a name="emr-590-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.183 | 1.11.160 | 1.11,160 | 1.11,160 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.9.0 Versionshinweise
<a name="emr-590-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.9.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.8.0.

Veröffentlichungsdatum: 5. Oktober 2017

Letzte Aktualisierung der Funktionen: 12. Oktober 2017

**Upgrades**
+ AWS SDK für Java Ausführung 1.11.183
+ Flink 1.3.2
+ Hue 4.0.1
+ Pig 0.17.0
+ Presto 0.184

**Neue Features**
+ Livy-Support hinzugefügt (Version 0.4.0-incubating). Weitere Informationen finden Sie unter [Apache Livy](emr-livy.md).
+ Support für Hue-Notebooks für Spark hinzugefügt.
+ Support für die i3-Serie für Amazon-EC2-Instances hinzugefügt (12. Oktober 2017).

**Änderungen, Verbesserungen und behobene Probleme**
+ Spark
  + Neue Funktionen hinzugefügt, die sicherstellen, dass Spark die Knotenbeendigung infolge einer manuellen Größenänderung oder einer Anforderung einer Auto Scaling-Richtlinie zuverlässiger ausführt. Weitere Informationen finden Sie unter [Verhalten der Außerbetriebnahme von Knoten konfigurieren](emr-spark-configure.md#spark-decommissioning).
  + Anstelle von 3DES wird SSL-Verschlüsselung bei der Übertragung für den Blocktransferservice verwendet, was die Leistung bei der Verwendung von Amazon-EC2-Instance-Typen mit AES-NI verbessert.
  + [SPARK-21494](https://issues.apache.org/jira/browse/SPARK-21494) rückportiert.
+ Zeppelin
  + [ZEPPELIN-2377](https://issues.apache.org/jira/browse/ZEPPELIN-2377) rückportiert.
+ HBase
  + Patch [HBASE-18533](https://issues.apache.org/jira/browse/HBASE-18533) hinzugefügt, der zusätzliche Werte für HBase BucketCache die Konfiguration mithilfe der Konfigurationsklassifizierung ermöglicht. `hbase-site`
+ Hue
  +  AWS Glue Data Catalog-Unterstützung für den Hive-Abfrageeditor in Hue hinzugefügt.
  + Hauptbenutzer in Hue können standardmäßig alle auf Dateien zugreifen, auf die Amazon-EMR-IAM-Rollen zugreifen dürfen. Neu erstellte Benutzer verfügen nicht automatisch über Zugriffsberechtigungen auf den Amazon-S3-Filebrowser und für ihre Gruppen müssen die `filebrowser.s3_access`-Berechtigungen aktiviert sein.
+ Es wurde ein Problem behoben, das dazu führte, dass auf die zugrunde liegenden JSON-Daten, die mit dem AWS Glue-Datenkatalog erstellt wurden, nicht zugegriffen werden konnte.

**Bekannte Probleme**
+ Der Cluster-Start schlägt fehl, wenn alle Anwendungen installiert und die Standardgröße des Amazon-EBS-Stamm-Volumes nicht geändert wurde. Um das Problem zu umgehen, verwenden Sie den `aws emr create-cluster` Befehl von AWS CLI und geben Sie einen größeren `--ebs-root-volume-size` Parameter an.
+ Hive 2.3.0 setzt `hive.compute.query.using.stats=true` standardmäßig. Dies bewirkt, dass Abfragen Daten aus vorhandenen Statistiken und nicht direkt aus den Daten abrufen, da diese unübersichtlich sein können. Wenn Sie beispielsweise über eine Tabelle mit `hive.compute.query.using.stats=true` verfügen und neue Dateien in die Tabelle `LOCATION` hochladen, gibt die Abfrage `SELECT COUNT(*)` in der Tabelle die Anzahl aus den Statistiken zurück, anstatt die hinzugefügten Zeilen abzurufen.

  Um dieses Problem zu umgehen, verwenden Sie den Befehl `ANALYZE TABLE`, um neue Statistiken zu sammeln, oder legen Sie `hive.compute.query.using.stats=false` fest. Weitere Informationen finden Sie unter [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) in der Apache Hive-Dokumentation.

## 5.9.0 Komponentenversionen
<a name="emr-590-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.7.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.19.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 4.0.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| livy-server | 0.4.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.184 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.184 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.9.0 Konfigurationsklassifizierungen
<a name="emr-590-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.9.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.8.3
<a name="emr-583-release"></a>

## 5.8.3 Anwendungsversionen
<a name="emr-583-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.160 | 1.11,160 | 1.11,160 | 1.11,160 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.3 Versionshinweise
<a name="emr-583-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.8.3 Komponentenversionen
<a name="emr-583-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.6.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.18.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-1 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.8.3 Konfigurationsklassifizierungen
<a name="emr-583-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.8.3-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.8.2
<a name="emr-582-release"></a>

## 5.8.2 Anwendungsversionen
<a name="emr-582-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.160 | 1.11,160 | 1.11,160 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.2 Versionshinweise
<a name="emr-582-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.8.2. Änderungen beziehen sich auf Version 5.8.1.

Erste Version: 29. März 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Der Amazon-Linux-Kernel des standardmäßigen Amazon-Linux-AMI für Amazon EMR wurde aktualisiert, um potenzielle Schwachstellen zu schließen.

## 5.8.2 Komponentenversionen
<a name="emr-582-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.6.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.18.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-1 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.8.2 Konfigurationsklassifizierungen
<a name="emr-582-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.8.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.8.1
<a name="emr-581-release"></a>

## 5.8.1 Anwendungsversionen
<a name="emr-581-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.160 | 1.11,160 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.1 Versionshinweise
<a name="emr-581-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.8.1. Änderungen beziehen sich auf Amazon-EMR-Version 5.8.0.

Erste Version: 22. Januar 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Der Amazon-Linux-Kernel des standardmäßigen Amazon-Linux-AMI für Amazon EMR wurde aktualisiert, um Schwachstellen im Zusammenhang mit spekulativer Ausführung zu beheben (CVE-2017-5715, CVE-2017-5753 und CVE-2017-5754). Weitere Informationen finden Sie unter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## 5.8.1 Komponentenversionen
<a name="emr-581-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.6.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.18.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-1 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.8.1 Konfigurationsklassifizierungen
<a name="emr-581-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.8.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.8.0
<a name="emr-580-release"></a>

## 5.8.0 Anwendungsversionen
<a name="emr-580-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.160 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| HCatalog | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.0 Versionshinweise
<a name="emr-580-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.8.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.7.0.

Erste Version: 10. August 2017

Letzte Aktualisierung der Funktionen: 25. September 2017

**Upgrades**
+ AWS SDK 1.11.160
+ Flink 1.3.1
+ Hive 2.3.0. Weitere Informationen finden Sie in den [Versionshinweisen](https://issues.apache.org/jira/secure/ConfigureReleaseNote.jspa?projectId=12310843&version=12340269) auf der Apache Hive-Website.
+ Spark 2.2.0. Weitere Informationen finden Sie in den [Versionshinweisen](https://spark.apache.org/releases/spark-release-2-2-0.html) auf der Apache Spark-Website.

**Neue Features**
+ Support zur Anzeige des Anwendungsverlaufs hinzugefügt (25. September 2017). Weitere Informationen finden Sie unter [Anzeigen des Anwendungsverlaufs](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html) im *Verwaltungshandbuch für Amazon EMR*.

**Änderungen, Verbesserungen und behobene Probleme**
+ **Integration mit dem AWS Glue-Datenkatalog**
  + Hive und Spark SQL können jetzt AWS Glue Data Catalog als Hive-Metadatenspeicher verwenden. Weitere Informationen erhalten Sie unter [Verwenden des AWS Glue-Datenkatalogs als Metastore für Hive](emr-hive-metastore-glue.md) und [Verwenden Sie den AWS Glue Data Catalog-Katalog mit Spark auf Amazon EMR](emr-spark-glue.md).
+ Neuen **Anwendungsverlauf** mit Cluster-Details hinzugefügt, über den Verlaufsdaten für YARN-Anwendungen und zusätzliche Details zu Spark-Anwendungen angezeigt werden können. Weitere Informationen finden Sie unter [Anwendungsverlauf anzeigen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html) im *Verwaltungshandbuch für Amazon EMR*.
+ **Oozie**
  + [OOZIE-2748](https://issues.apache.org/jira/browse/OOZIE-2748) wurde rückportiert.
+ **Hue**
  + [HUE-5859](https://issues.cloudera.org/browse/HUE-5859) wurde rückportiert.
+ **HBase**
  + Es wurde ein Patch hinzugefügt, um die Startzeit des HBase Masterservers mithilfe von Java Management Extensions (JMX) offenzulegen. `getMasterInitializedTime`
  + Patch zur Verbesserung der Cluster-Startzeit hinzugefügt.

**Bekannte Probleme**
+ Der Cluster-Start schlägt fehl, wenn alle Anwendungen installiert und die Standardgröße des Amazon-EBS-Stamm-Volumes nicht geändert wurde. Um das Problem zu umgehen, verwenden Sie den `aws emr create-cluster` Befehl von AWS CLI und geben Sie einen größeren `--ebs-root-volume-size` Parameter an.
+ Hive 2.3.0 setzt `hive.compute.query.using.stats=true` standardmäßig. Dies bewirkt, dass Abfragen Daten aus vorhandenen Statistiken und nicht direkt aus den Daten abrufen, da diese unübersichtlich sein können. Wenn Sie beispielsweise über eine Tabelle mit `hive.compute.query.using.stats=true` verfügen und neue Dateien in die Tabelle `LOCATION` hochladen, gibt die Abfrage `SELECT COUNT(*)` in der Tabelle die Anzahl aus den Statistiken zurück, anstatt die hinzugefügten Zeilen abzurufen.

  Um dieses Problem zu umgehen, verwenden Sie den Befehl `ANALYZE TABLE`, um neue Statistiken zu sammeln, oder legen Sie `hive.compute.query.using.stats=false` fest. Weitere Informationen finden Sie unter [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive) in der Apache Hive-Dokumentation.
+ **Spark** – Bei der Verwendung von Spark tritt bei dem apppusher-Daemon bei Spark-Aufträgen mit langer Ausführungsdauer nach einigen Stunden oder Tagen möglicherweise ein Speicherleck-Problem bei dem Datei-Handler auf. Um das Problem zu beheben, stellen Sie eine Verbindung mit dem Primärknoten her und geben `sudo /etc/init.d/apppusher stop` ein. Dies beendet den apppusher-Daemon, den Amazon EMR automatisch neu startet.
+ **Application history**
  + Es sind keine Verlaufsdaten für beendete Spark-Executors verfügbar.
  + Der Anwendungsverlauf ist nicht für Cluster verfügbar, die eine Sicherheitskonfiguration verwenden, um die Verschlüsselung bei der Übertragung zu aktivieren.

## 5.8.0 Komponentenversionen
<a name="emr-580-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.4.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.6.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.18.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.3.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.3.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.3.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.3.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-1 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.2.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.2.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.2.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.2.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.8.0 Konfigurationsklassifizierungen
<a name="emr-580-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.8.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.7.1
<a name="emr-571-release"></a>

## 5.7.1 Anwendungsversionen
<a name="emr-571-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4.11.0- -1,3 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.7.1 Versionshinweise
<a name="emr-571-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.7.1 Komponentenversionen
<a name="emr-571-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.18.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.7.1 Konfigurationsklassifizierungen
<a name="emr-571-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.7.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.7.0
<a name="emr-570-release"></a>

## 5.7.0 Anwendungsversionen
<a name="emr-570-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0- -1,3 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.7.0 Versionshinweise
<a name="emr-570-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.7.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.6.0.

Veröffentlichungsdatum: 13. Juli 2017

**Upgrades**
+ Flink 1.3.0
+ Phoenix 4.11.0
+ Zeppelin 0.7.2

**Neue Features**
+ Die Möglichkeit zum Angeben eines benutzerdefinierten Amazon Linux AMI beim Erstellen eines Clusters wurde hinzugefügt. Weitere Informationen finden Sie unter [Verwenden eines benutzerdefinierten AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html).

**Änderungen, Verbesserungen und behobene Probleme**
+ **HBase**
  + Es wurde die Möglichkeit hinzugefügt, HBase Read-Replica-Cluster zu konfigurieren. Weitere Informationen finden Sie unter [Verwenden eines Read Replica-Clusters](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-read-replica)
  + Mehrere Fehlerbehebungen und Verbesserungen
+ **Presto** – neue Konfigurationsfunktion `node.properties` hinzugefügt.
+ **YARN** – neue Konfigurationsfunktion `container-log4j.properties` hinzugefügt
+ **Sqoop** – [SQOOP-2880](https://issues.apache.org/jira/browse/SQOOP-2880) rückportiert und damit einen Parameter eingeführt, mit dem Sie das temporäre Sqoop-Verzeichnis festlegen können.

## 5.7.0 Komponentenversionen
<a name="emr-570-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.18.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.3.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.11.0- -1.3 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4.11.0- -1,3 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.7.0 Konfigurationsklassifizierungen
<a name="emr-570-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.7.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.6.1
<a name="emr-561-release"></a>

## 5.6.1 Anwendungsversionen
<a name="emr-561-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.6.1 Versionshinweise
<a name="emr-561-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.6.1 Komponentenversionen
<a name="emr-561-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.17.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.6.1 Konfigurationsklassifizierungen
<a name="emr-561-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.6.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.6.0
<a name="emr-560-release"></a>

## 5.6.0 Anwendungsversionen
<a name="emr-560-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.6.0 Versionshinweise
<a name="emr-560-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.6.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.5.0.

Veröffentlichungsdatum: 5. Juni 2017

**Upgrades**
+ Flink 1.2.1
+ HBase 1.3.1
+ Mahout 0.13.0. Dies ist die erste Version von Mahout, die Spark 2.x in Amazon-EMR-Version 5.0 und höher unterstützt.
+ Spark 2.1.1

**Änderungen, Verbesserungen und behobene Probleme**
+ **Presto**
  + Es wurde die Möglichkeit hinzugefügt, eine SSL/TLS sichere Kommunikation zwischen Presto-Knoten zu ermöglichen, indem die Verschlüsselung während der Übertragung mithilfe einer Sicherheitskonfiguration aktiviert wird. Weitere Informationen finden Sie unter [Verschlüsselung von Daten während der Übertragung](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption-options.html#emr-encryption-intransit).
  + [Presto 7661](https://github.com/prestodb/presto/pull/7661/commits) wurde rückportiert, wodurch der Anweisung `EXPLAIN ANALYZE` die Option `VERBOSE` hinzugefügt wurde, um detailliertere Low-Level-Statistiken über einen Abfrageplan bereitzustellen.

## 5.6.0 Komponentenversionen
<a name="emr-560-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.17.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.13.0 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.6.0 Konfigurationsklassifizierungen
<a name="emr-560-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.6.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.5.4
<a name="emr-554-release"></a>

## 5.5.4 Anwendungsversionen
<a name="emr-554-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.5.4 Versionshinweise
<a name="emr-554-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.5.4 Komponentenversionen
<a name="emr-554-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.16.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.5.4 Konfigurationsklassifizierungen
<a name="emr-554-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.5.4-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.5.3
<a name="emr-553-release"></a>

## 5.5.3 Anwendungsversionen
<a name="emr-553-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.5.3 Versionshinweise
<a name="emr-553-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.5.3. Änderungen beziehen sich auf Version 5.5.2.

Erste Version: 29. August 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Diese Version behebt eine potenzielle Schwachstellen.

## 5.5.3 Komponentenversionen
<a name="emr-553-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.16.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.5.3 Konfigurationsklassifizierungen
<a name="emr-553-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.5.3-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.5.2
<a name="emr-552-release"></a>

## 5.5.2 Anwendungsversionen
<a name="emr-552-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 

## 5.5.2 Versionshinweise
<a name="emr-552-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.5.2. Änderungen beziehen sich auf Version 5.5.1.

Erste Version: 29. März 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Der Amazon-Linux-Kernel des standardmäßigen Amazon-Linux-AMI für Amazon EMR wurde aktualisiert, um potenzielle Schwachstellen zu schließen.

## 5.5.2 Komponentenversionen
<a name="emr-552-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.16.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.5.2 Konfigurationsklassifizierungen
<a name="emr-552-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.5.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.5.1
<a name="emr-551-release"></a>

## 5.5.1 Anwendungsversionen
<a name="emr-551-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.166 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 

## 5.5.1 Versionshinweise
<a name="emr-551-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.5.1. Änderungen beziehen sich auf Amazon-EMR-Version 5.5.0.

Erste Version: 22. Januar 2018

**Änderungen, Verbesserungen und behobene Probleme**
+ Der Amazon-Linux-Kernel des standardmäßigen Amazon-Linux-AMI für Amazon EMR wurde aktualisiert, um Schwachstellen im Zusammenhang mit spekulativer Ausführung zu beheben (CVE-2017-5715, CVE-2017-5753 und CVE-2017-5754). Weitere Informationen finden Sie unter [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/).

## 5.5.1 Komponentenversionen
<a name="emr-551-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.16.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.5.1 Konfigurationsklassifizierungen
<a name="emr-551-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.5.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.5.0
<a name="emr-550-release"></a>

## 5.5.0 Anwendungsversionen
<a name="emr-550-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.166 | 0.166 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 
| ZooKeeper | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.5.0 Versionshinweise
<a name="emr-550-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.5.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.4.0.

Veröffentlichungsdatum: 26. April 2017

**Upgrades**
+ Hue 3.12
+ Presto 0.170
+ Zeppelin 0.7.1
+ ZooKeeper 3,4,10

**Änderungen, Verbesserungen und behobene Probleme**
+ **Spark**
  + Rückportierter [Spark-Patch (SPARK-20115) Es wurde behoben, DAGScheduler um alle verlorenen Shuffle-Blöcke neu zu berechnen, wenn der externe Shuffle-Dienst für Version 2.1.0 von Spark, die in dieser Version enthalten ist, nicht verfügbar ist](https://issues.apache.org/jira/browse/SPARK-20115).
+ **Flink**
  + Flink ist nun in Scala 2.11 integriert. Wenn Sie die Scala-API und -Bibliotheken verwenden, empfehlen wir Scala 2.11 für Ihre Projekte.
  + Ein Problem wurde behoben, bei dem die Standardeinstellungen `HADOOP_CONF_DIR` und `YARN_CONF_DIR` nicht ordnungsgemäß festgelegt wurden, sodass `start-scala-shell.sh` nicht funktionierte. Außerdem wurde die Möglichkeit hinzugefügt, diese Werte mit `env.hadoop.conf.dir` und `env.yarn.conf.dir` in `/etc/flink/conf/flink-conf.yaml` oder der Konfigurationsklassifizierung `flink-conf` festzulegen.
  + Es wurde ein neuer EMR-spezifischer Befehl, `flink-scala-shell` als Wrapper für `start-scala-shell.sh` eingeführt. Wir empfehlen, diese Befehl statt `start-scala-shell` zu verwenden. Der neue Befehl vereinfacht die Ausführung. Beispielsweise startet `flink-scala-shell -n 2` eine Flink Scala-Shell mit einer Aufgabenparallelität von 2.
  + Es wurde ein neuer EMR-spezifischer Befehl, `flink-yarn-session` als Wrapper für `yarn-session.sh` eingeführt. Wir empfehlen, diese Befehl statt `yarn-session` zu verwenden. Der neue Befehl vereinfacht die Ausführung. Beispielsweise startet `flink-yarn-session -d -n 2` eine langlebige Flink-Sitzung in einem getrennten Status mit zwei Aufgabenmanagern. 
  + Das Problem [(FLINK-6125) Commons httpclient is not shaded anymore in Flink 1.2](https://issues.apache.org/jira/browse/FLINK-6125) wurde behoben.
+ **Presto**
  + Die LDAP-Authentifizierung wird jetzt unterstützt. Zur Verwendung von LDAP mit Presto in Amazon EMR; müssen Sie den HTTPS-Zugriff für den Presto-Koordinator (`http-server.https.enabled=true` in `config.properties`) aktivieren. Konfigurationsdetails finden Sie unter [LDAP Authentication](https://prestodb.io/docs/current/security/ldap.html) in der Presto-Dokumentation.
  + Unterstützung für `SHOW GRANTS` hinzugefügt.
+ **Amazon-EMR-Basis-Linux-AMI**
  + Amazon-EMR-Versionen basieren jetzt auf Amazon Linux 2017.03. Weitere Informationen finden Sie in den [Amazon Linux AMI 2017.03-Versionshinweisen](https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/).
  + Python 2.6 wurde aus dem Amazon-EMR-Basis-Linux-Image entfernt. Python 2.7 und 3.4 sind standardmäßig installiert. Sie können Python 2.6 bei Bedarf manuell installieren.

## 5.5.0 Komponentenversionen
<a name="emr-550-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.3.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.5.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.16.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.12.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.170 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.170 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.10 | ZooKeeper Befehlszeilen-Client. | 

## 5.5.0 Konfigurationsklassifizierungen
<a name="emr-550-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.5.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.4.1
<a name="emr-541-release"></a>

## 5.4.1 Anwendungsversionen
<a name="emr-541-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.4.1 Versionshinweise
<a name="emr-541-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.4.1 Komponentenversionen
<a name="emr-541-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.15.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.166 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.166 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.4.1 Konfigurationsklassifizierungen
<a name="emr-541-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.4.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.4.0
<a name="emr-540-release"></a>

## 5.4.0 Anwendungsversionen
<a name="emr-540-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4,9,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.4.0 Versionshinweise
<a name="emr-540-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 5.4.0. Änderungen beziehen sich auf Amazon EMR Version 5.3.0.

Veröffentlichungsdatum: 8. März 2017

**Upgrades**
+ Upgrade auf Flink 1.2.0
+ Auf 1.3.0 aktualisiert HBase 
+ Upgrade auf Phoenix 4.9.0
**Anmerkung**  
Wenn Sie von einer früheren Version von Amazon EMR auf Amazon EMR Version 5.4.0 oder höher upgraden und die sekundäre Indizierung verwenden, aktualisieren Sie lokale Indizes wie in der [Apache-Phoenix-Dokumentation](https://phoenix.apache.org/secondary_indexing.html#Upgrading_Local_Indexes_created_before_4.8.0) beschrieben. Amazon EMR entfernt die erforderlichen Konfigurationen aus der `hbase-site`-Klassifizierung, die Indizes müssen jedoch neu gefüllt werden. Online- und Offline-Upgrades von Indizes werden unterstützt. Online-Upgrades sind die Standardeinstellung. Dies bedeutet, dass Indizes neu gefüllt werden, während die Initialisierung von Phoenix-Clients Version 4.8.0 oder höher ausgeführt wird. Um Offline-Upgrades festzulegen, geben Sie für die `phoenix.client.localIndexUpgrade`-Konfiguration in der `phoenix-site`-Klassifizierung false und dann SSH für den Primärknoten an, um `psql [zookeeper] -1` auszuführen.
+ Upgrade auf Presto 0.166
+ Upgrade auf Zeppelin 0.7.0

**Änderungen und Verbesserungen**
+ Es werden jetzt r4-Instances unterstützt. Sehen Sie unter [Amazon-EC2-Instance-Typen](https://aws.amazon.com/ec2/instance-types/).

## 5.4.0 Komponentenversionen
<a name="emr-540-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.15.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.2.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.3.0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.3.0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.3.0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.3.0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.3.0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.9.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,9,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.166 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.166 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.7.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.4.0 Konfigurationsklassifizierungen
<a name="emr-540-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.4.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.3.2
<a name="emr-532-release"></a>

## 5.3.2 Anwendungsversionen
<a name="emr-532-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.2 Versionshinweise
<a name="emr-532-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.3.2 Komponentenversionen
<a name="emr-532-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.14.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.4 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.157.1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.157.1 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.3.2 Konfigurationsklassifizierungen
<a name="emr-532-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.3.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.3.1
<a name="emr-531-release"></a>

## 5.3.1 Anwendungsversionen
<a name="emr-531-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.1 Versionshinweise
<a name="emr-531-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.3.1. Änderungen beziehen sich auf Amazon EMR Version 5.3.0.

Veröffentlichungsdatum: 7. Februar 2017

Kleinere Änderungen am Backport von Zeppelin-Patches und an der Aktualisierung des Standard-AMI für Amazon EMR.

## 5.3.1 Komponentenversionen
<a name="emr-531-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.14.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.4 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.54\$1 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.157.1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.157.1 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.3.1 Konfigurationsklassifizierungen
<a name="emr-531-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.3.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.3.0
<a name="emr-530-release"></a>

## 5.3.0 Anwendungsversionen
<a name="emr-530-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.0 Versionshinweise
<a name="emr-530-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.3.0. Änderungen beziehen sich auf Amazon EMR Version 5.2.1.

Veröffentlichungsdatum: 26. Januar 2017

**Upgrades**
+ Upgrade auf Hive 2.1.1
+ Upgrade auf Hue 3.11.0
+ Upgrade auf Spark 2.1.0
+ Upgrade auf Oozie 4.3.0
+ Upgrade auf Flink 1.1.4

**Änderungen und Verbesserungen**
+ Ein Patch für Hue wurde hinzugefügt, mit dem Sie die Einstellung `interpreters_shown_on_wheel` verwenden können, um zu konfigurieren, was Interpreter in der Notebook-Auswahl als Erstes anzeigen, unabhängig von ihrer Reihenfolge in der Datei `hue.ini`.
+ Die Konfigurationsklassifizierung `hive-parquet-logging` wurde hinzugefügt, mit der Sie Werte in der Hive-Datei `parquet-logging.properties` konfigurieren können.

## 5.3.0 Komponentenversionen
<a name="emr-530-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.14.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.4 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.1-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.1-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.1-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.1-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.1-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.3.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.3.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.157.1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.157.1 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.1.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.1.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.1.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.1.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.25\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.3.0 Konfigurationsklassifizierungen
<a name="emr-530-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.3.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.2.3
<a name="emr-523-release"></a>

## 5.2.3 Anwendungsversionen
<a name="emr-523-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 

## 5.2.3 Versionshinweise
<a name="emr-523-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.2.3 Komponentenversionen
<a name="emr-523-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.13.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.3 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.157.1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.157.1 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.2.3 Konfigurationsklassifizierungen
<a name="emr-523-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.2.3-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.2.2
<a name="emr-522-release"></a>

## 5.2.2 Anwendungsversionen
<a name="emr-522-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 

## 5.2.2 Versionshinweise
<a name="emr-522-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.2.2. Änderungen beziehen sich auf Amazon EMR Version 5.2.1.

Veröffentlichungsdatum: 2. Mai 2017

**Bekannte Probleme aus den früheren Versionen, die behoben wurden**
+ [SPARK-194459](https://issues.apache.org/jira/browse/SPARK-19459) wurde zurückportiert, wodurch ein Problem behoben wurde, bei dem das Lesen aus einer ORC-Tabelle mit Spalten fehlschlagen kann. char/varchar 

## 5.2.2 Komponentenversionen
<a name="emr-522-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.13.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.3 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.157.1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.157.1 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.2.2 Konfigurationsklassifizierungen
<a name="emr-522-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.2.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.2.1
<a name="emr-521-release"></a>

## 5.2.1 Anwendungsversionen
<a name="emr-521-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.2.1 Versionshinweise
<a name="emr-521-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.2.1. Änderungen beziehen sich auf Amazon EMR Version 5.2.0.

Veröffentlichungsdatum: 29. Dezember 2016

**Upgrades**
+ Upgrade auf Presto 0.157.1. Weitere Informationen finden Sie in den [Presto-Versionshinweisen](https://prestodb.io/docs/current/release/release-0.157.1.html) in der Presto-Dokumentation. 
+ Upgrade auf ZooKeeper 3.4.9. Weitere Informationen finden Sie in den [ZooKeeperVersionshinweisen](https://zookeeper.apache.org/doc/r3.4.9/releasenotes.html) in der ZooKeeper Apache-Dokumentation.

**Änderungen und Verbesserungen**
+ Unterstützung hinzugefügt für den Amazon-EC2-Instance-Typ m4.16xlarge in Amazon-EMR-Version 4.8.3 und höher, ausgenommen 5.0.0, 5.0.3 und 5.2.0.
+ Amazon-EMR-Versionen basieren jetzt auf Amazon Linux 2016.09. Weitere Informationen finden Sie unter [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/).
+ Der Speicherort von Flink- und YARN-Konfigurationspfaden wird nun standardmäßig in `/etc/default/flink` festgelegt. Sie brauchen die Umgebungsvariablen `FLINK_CONF_DIR` und `HADOOP_CONF_DIR` bei der Ausführung des Treiberskripts `flink` oder `yarn-session.sh` zum Starten von Flink-Aufträgen nicht festlegen.
+ Unterstützung für FlinkKinesisConsumer Klassen hinzugefügt.

**Bekannte Probleme aus den früheren Versionen, die behoben wurden**
+ Es wurde ein Problem in Hadoop behoben, bei dem der ReplicationMonitor Thread aufgrund eines Wettlaufs zwischen Replikation und Löschung derselben Datei in einem großen Cluster für lange Zeit hängen bleiben konnte.
+ Es wurde ein Problem behoben, bei dem ControlledJob \$1toString mit einer Nullzeiger-Ausnahme (NPE) fehlschlug, wenn der Jobstatus nicht erfolgreich aktualisiert wurde.

## 5.2.1 Komponentenversionen
<a name="emr-521-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.13.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.3 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.157.1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.157.1 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.9 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.9 | ZooKeeper Befehlszeilen-Client. | 

## 5.2.1 Konfigurationsklassifizierungen
<a name="emr-521-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.2.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.2.0
<a name="emr-520-release"></a>

## 5.2.0 Anwendungsversionen
<a name="emr-520-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.2.0 Versionshinweise
<a name="emr-520-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.2.0. Änderungen beziehen sich auf Amazon EMR Version 5.1.0.

Veröffentlichungsdatum: 21. November 2016

**Änderungen und Verbesserungen**
+ Amazon S3 S3-Speichermodus für hinzugefügt HBase.
+  Ermöglicht es Ihnen, einen Amazon S3 S3-Speicherort für das HBase Rootdir anzugeben. Weitere Informationen finden Sie [HBase unter Amazon S3](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html).

**Upgrades**
+ Upgrade auf Spark 2.0.2

**Bekannte Probleme aus den früheren Versionen, die behoben wurden**
+ Es wurde ein Problem mit der Beschränkung von /mnt auf 2 TB auf ausschließlichen EBS-Instance-Typen behoben.
+ Es wurde ein Problem mit Instance-Controller und Logpusher-Protokollen behoben, die an die entsprechenden OUT-Dateien anstelle ihrer üblichen log4j-konfigurierten LOG-Dateien, die stündlich rotieren, ausgegeben wurden. Da die OUT-Dateien nicht rotieren, ist letztendlich die /emr-Partition belegt. Dieses Problem wirkt sich nur auf Hardware Virtual Machine (HVM)-Instance-Typen aus.

## 5.2.0 Komponentenversionen
<a name="emr-520-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.12.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.3 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.152.3 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.152.3 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.2.0 Konfigurationsklassifizierungen
<a name="emr-520-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.2.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.1.1
<a name="emr-511-release"></a>

## 5.1.1 Anwendungsversionen
<a name="emr-511-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.1.1 Versionshinweise
<a name="emr-511-relnotes"></a>

Dies ist eine Patch-Version, um die AWS Signature Version 4-Authentifizierung für Anfragen an Amazon S3 hinzuzufügen. Alle Anwendungen und Komponenten sind dieselben wie in der vorherigen Amazon-EMR-Version.

**Wichtig**  
In dieser Release-Version verwendet Amazon EMR AWS Signature Version 4 ausschließlich zur Authentifizierung von Anfragen an Amazon S3. Weitere Informationen finden Sie unter [Was ist neu](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).

## 5.1.1 Komponentenversionen
<a name="emr-511-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.11.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.3 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.152.3 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.152.3 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.1.1 Konfigurationsklassifizierungen
<a name="emr-511-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.1.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.1.0
<a name="emr-510-release"></a>

## 5.1.0 Anwendungsversionen
<a name="emr-510-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/),, [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.1.0 Versionshinweise
<a name="emr-510-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.1.0. Änderungen beziehen sich auf Amazon-EMR-Version 5.0.3.

Veröffentlichungsdatum: 03. November 2016

**Änderungen und Verbesserungen**
+ Flink 1.1.3 wird jetzt unterstützt.
+ Presto wurde als Option im Notebookabschnitt von Hue hinzugefügt.

**Upgrades**
+ Auf 1.2.3 aktualisiert HBase 
+ Upgrade auf Zeppelin 0.6.2

**Bekannte Probleme aus den früheren Versionen, die behoben wurden**
+ Ein Problem mit Tez-Abfragen in Amazon S3, bei dem ORC-Dateien nicht so gute Leistung zeigten, wie in früheren Amazon-EMR-4.x-Versionen, wurde behoben.

## 5.1.0 Komponentenversionen
<a name="emr-510-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.11.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.1.3 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.152.3 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.152.3 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.2 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.1.0 Konfigurationsklassifizierungen
<a name="emr-510-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.1.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.0.3
<a name="emr-503-release"></a>

## 5.0.3 Anwendungsversionen
<a name="emr-503-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/),, [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.3 Versionshinweise
<a name="emr-503-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 5.0.3. Änderungen beziehen sich auf Amazon EMR Version 5.0.0.

Veröffentlichungsdatum: 24. Oktober 2016

**Upgrades**
+ Upgrade auf Hadoop 2.7.3
+ Es wurde ein Upgrade auf Presto 0.152.3 durchgeführt, das Support für die Presto-Webschnittstelle umfasst. Sie können auf die Presto-Webschnittstelle des Presto-Koordinators über Port 8889 zugreifen. Weitere Informationen über die Presto-Webschnittstelle finden Sie unter [Web Interface](https://prestodb.io/docs/current/admin/web-interface.html) in der Presto-Dokumentation.
+ Upgrade auf Spark 2.0.1
+ Amazon-EMR-Versionen basieren jetzt auf Amazon Linux 2016.09. Weitere Informationen finden Sie unter [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/).

## 5.0.3 Komponentenversionen
<a name="emr-503-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.10.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.3-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.52 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.152.3 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.152.3 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.0.3 Konfigurationsklassifizierungen
<a name="emr-503-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.0.3-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.0.2
<a name="emr-502-release"></a>

## 5.0.2 Anwendungsversionen
<a name="emr-502-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/),, [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.2 Versionshinweise
<a name="emr-502-relnotes"></a>

## 5.0.2 Komponentenversionen
<a name="emr-502-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.9.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.2-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.46 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.150 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.150 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.1-SNAPSHOT | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.0.2 Konfigurationsklassifizierungen
<a name="emr-502-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.0.2-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.0.1
<a name="emr-501-release"></a>

## 5.0.1 Anwendungsversionen
<a name="emr-501-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/),, [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.1 Versionshinweise
<a name="emr-501-relnotes"></a>

## 5.0.1 Komponentenversionen
<a name="emr-501-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.9.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.2-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.46 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.150 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.150 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.1-SNAPSHOT | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.0.1 Konfigurationsklassifizierungen
<a name="emr-501-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.0.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 5.0.0
<a name="emr-500-release"></a>

## 5.0.0 Anwendungsversionen
<a name="emr-500-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/),, [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.10.75 | 1,10,75 | 1,10,75 | 1,10,75 | 
| Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | 
| Scala | 2.11,8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 4,7,0- -1,2 HBase | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.0 Versionshinweise
<a name="emr-500-relnotes"></a>

 Veröffentlichungsdatum: 27. Juli 2016

**Upgrades**
+ Upgrade auf Hive 2.1
+ Upgrade auf Presto 0.150
+ Upgrade auf Spark 2.0
+ Upgrade auf Hue 3.10.0
+ Upgrade auf Pig 0.16.0
+ Upgrade auf Tez 0.8.4
+ Upgrade auf Zeppelin 0.6.1

**Änderungen und Verbesserungen**
+ Amazon EMR unterstützt die neuesten Open-Source-Versionen von Hive (Version 2.1) und Pig (Version 0.16.0). Wenn Sie Hive oder Pig in der Vergangenheit in Amazon EMR verwendet haben, kann sich dies auf einige Anwendungsfälle auswirken. Weitere Informationen finden Sie unter [Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive.html) und [Pig](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-pig.html).
+ Die Standard-Ausführungs-Engine für Hive und Pig ist jetzt Tez. Um dies zu ändern, bearbeiten Sie die entsprechenden Werte in den Konfigurationsklassifizierungen `hive-site` bzw. `pig-properties`.
+ Eine verbesserte Schritt-Debugging-Funktion wurde hinzugefügt. Mit dieser Funktion können Sie die Ursache von Schrittfehlern sehen, wenn der Service die Ursache ermitteln kann. Weitere Informationen finden Sie unter [ Verbessertes Schritt-Debuggen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-enhanced-step-debugging.html) im Verwaltungshandbuch für Amazon EMR.
+ Anwendungen, die zuvor mit "-Sandbox" endeten, tragen diesen Suffix nicht mehr. Dies kann Ihre Automatisierung, zum Beispiel, wenn Sie Skripts zum Starten von Clustern mit diesen Anwendungen verwenden, unterbrechen. In der folgenden Tabelle sind die Namen von Anwendungen in Amazon EMR 4.7.2 im Vergleich zu Amazon EMR 5.0.0 aufgeführt.   
**Änderungen der Anwendungsnamen**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-500-release.html)
+ Spark ist jetzt für Scala 2.11 kompiliert.
+ Java 8 ist jetzt die Standard-JVM. Alle Anwendungen werden mit der Java 8-Laufzeit ausgeführt. Es sind keine Änderungen am Byte-Codeziel der Anwendungen vorgenommen worden. Die meisten Anwendungen zielen weiterhin auf Java 7 ab.
+ Zeppelin enthält jetzt Authentifizierungsfunktionen. Weitere Informationen finden Sie unter [Zeppelin](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-zeppelin.html).
+ Es werden jetzt Sicherheitskonfigurationen unterstützt, mit deren Hilfe Sie die Verschlüsselungsoptionen einfacher erstellen und anwenden können. Weitere Informationen finden Sie unter [Datenverschlüsselung](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption.html).

## 5.0.0 Komponentenversionen
<a name="emr-500-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 2.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.2.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.4.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emrfs | 2.9.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 2.7.2-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 2.7.2-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 1.2.2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 1.2.2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 1.2.2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 1.2.2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 1.2.2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 2.1.0-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 2.1.0-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 2.1.0-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-metastore-server | 2.1.0-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server | 2.1.0-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hue-server | 3.10.0-amzn-0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| mahout-client | 0.12.2 | Bibliothek für Machine Learning. | 
| mysql-server | 5.5.46 | MySQL-Datenbankserver. | 
| oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| phoenix-library | 4.7.0- -1.2 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 4,7,0- -1,2 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.150 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.150 | Service für das Ausführen von Teilen einer Abfrage. | 
| pig-client | 0.16.0-amzn-0 | Pig-Befehlszeilen-Client. | 
| spark-client | 2.0.0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.0.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.0.0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.0.0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.6 | Apache Sqoop-Befehlszeilen-Client. | 
| tez-on-yarn | 0.8.4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.23 | Apache HTTP-Server. | 
| zeppelin-server | 0.6.1-SNAPSHOT | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.8 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.8 | ZooKeeper Befehlszeilen-Client. | 

## 5.0.0 Konfigurationsklassifizierungen
<a name="emr-500-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-5.0.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase-env | Werte in HBase der Umgebung ändern. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbaase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in's .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| mapred-env | Ändern Sie die Werte in der Anwendungsumgebung MapReduce . | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 